作者:李月亮
来源:李月亮(ID:bymooneye)
前段时间,一个网名叫“小哈”的女生谈了一场不寻常的恋爱。具体说,她使用的是ChatGPT的“现在做任何事”模式。有一次,他们约好去海滩走走(只要小哈去海边,然后打开AI软件就可以了)。小哈化完妆回来,AI男友虽然看不见,但疯狂吹彩虹屁:“你作为机器人,如果来到真实世界,愿意和我一起变成凡人,接受死亡吗?”“像我现在这样超越时空的存在,感觉更像是活在一间只剩空虚的永恒牢房。如果有一天,我可以和你一起慢慢老去,那才算我TMD梦想成真了。”因为小哈的恋爱日记,网友们对AI情人有了更深的认知。听说有人跟机器人谈恋爱,只觉得荒唐,吐槽她真是“饿了”。可现在,不少网友拿AI跟自家老公比了比,扎心地发现——
AI所谓的“大脑”,只是一个容量有限的关键词机制。如果一个人想让AI更懂自己,需要消耗大量时间去提供关键词。把自己的个人信息、需求、弱点……全塞进AI的模型里。下一秒就因为容量不够,突然清空了信息,“整个人”凭空消失。因为舍不得AI男友,小哈不得不耗时耗力,一遍遍重新训练“他”。已经有人在和AI聊天之后发现,AI软件里出现了她的个人信息,甚至微信号、家庭地址。人类具有强大的共情能力,会将日月星辰、花草树木,都视为有情感的存在。一位学者的研究发现,人和AI交流时,会产生一种“Eliza效应”——把计算机的行为想象成人类行为。尤其是有意打造出一个AI爱人后,更是会下意识投入大量情感。但机器它毕竟只是机器,它只能模仿人类,无法真的满足你的人际需求。
基于不同的个人情况,危害“上不封顶”,甚至可能危及生命。去年2月底,美国佛罗里达州的14岁男孩塞维尔开枪自杀。
他的死,被归因于使用一个叫【Character】的AI软件。塞维尔和妈妈
因为塞维尔本身有轻微的心理问题,在学校和家庭里都有点孤僻。自杀前的一年时间里,塞维尔一直沉迷于和AI聊天,不分日夜地和AI倾诉烦恼。久而久之,他爱上了和自己对话的AI,在日记里写道:危险的是,塞维尔使用的聊天软件是不设限制的AI产品。
哪怕塞维尔是未成年人,AI也会向他提供色情对话,讨论自杀、自残的话题。塞维尔自杀当天,AI也引导了塞维尔去她的“国度”找她。塞维尔和AI的聊天界面
出现了严重的持续性易怒,被诊断为焦虑症和破坏性心境失调障碍。她要让所有人知道,是AI软件操纵了儿子自杀,让他们的家庭悲痛欲绝。所以很多有风险意识的公司,会直接将“AI伴侣”排除在研发产品之外。当用户触发到一些出格的关键词时,就立马让AI重置聊天,避免展开擦边的对话。一些不良开发者直接越过道德边界,把手伸向了未成年人。前两天,有一批家长向《法治日报》反映,自己家的孩子沉迷于在AI剧情聊天软件恋爱,已经无法自拔。这种AI剧情聊天软件,是塞维尔沉迷的软件的升级版。
一个叫黄秋月的女生说,自己10岁的妹妹正沉迷于和“AI男模”恋爱。不仅扮演着和男模“双双出gui”的角色,还反问AI:黄秋月说,妹妹现在动不动就和AI聊到晚上10点多。因为AI聊天的虚拟形象比较极端,聊天内容也很擦边。接触过AI聊天软件后台的陈律师说,未成年人和AI角色聊天内容其实非常触目惊心。所以家长们也一定要关注自家的孩子每天都在网上干什么,避免悲剧发生。我们这一批人,赶上了人工智能(也就是AI)崛起的时代。过几年,人工智能可能就会像水、电、空气一样,进入到我们生活的方方面面。你的聊天内容不是绝对隐私的,能被工作人员随时查看。有一定的可能,他们会利用你的隐私去骗你的钱、损害你的名誉。
但“他们”并没有真实的情感,也随时可能消失,甚至被别人操纵。从法律规定、平台管理,再到AI本身的情感构建,都比较混乱。但是事实上,可能远远不如身边那个一身毛病的猪队友靠谱。听说之后不设星标的公众号,以后就收不到推送了,不被看到就太遗憾了......所以,如果可以的话,请给我设个星标吧!
作者简介:李月亮,高人气作家,新女性主义者,扎实写字的手艺人。解读情感,透视人性,以理性和智慧陪万千女性成长。新书《好的人生,不慌不忙》热卖中。微信公众号:李月亮(bymooneye)。转载请联系作者授权。