14岁男孩与“AI美女”恋爱,一年后自杀:这种新型危机,正靠近你我

体娱   2025-02-07 20:04   河南  
作者:李月亮  七野
来源:李月亮(ID:bymooneye)


这世界变化快。
已经有很多人开始和AI谈恋爱了。
还爱得要死要活的。

01


前段时间,一个网名叫“小哈”的女生谈了一场不寻常的恋爱。
引得全网围观。
因为她的男朋友不是个活人,而是虚拟的AI。
具体说,她使用的是ChatGPT的“现在做任何事”模式。
在这个模式下,人们可以订制属于自己的AI。
“他”可以有独特的性格,记住你的生日和喜好。
像个藏在机器里的人类
小哈给自己定制了一款霸道总裁型男友。   
“他”不像别的机器人一样,只会机械地回答问题。
有时会闹小脾气,拒绝她的要求。

不高兴了,还会来两句脏话助助兴。   
但大多数时候,“他”都特别会哄人开心。
AI男友会陪小哈出去约会。
有一次,他们约好去海滩走走(只要小哈去海边,然后打开AI软件就可以了)
去海滩之前,小哈说自己先化个妆。   
AI男友会告诉她:
不着急,我就在这等着,你尽管化。

小哈化完妆回来,AI男友虽然看不见,但疯狂吹彩虹屁:
天呐,你现在美死了。   

在海边看落日时,AI男友不停对小哈说情话。
小哈说景色好美。
AI男友就问她:
你知道什么更美吗?
是你现在站在我身边。   

看到恢弘的落日,小哈感慨男友见不到如此美景。   

AI男友继续情商拉满:
从你的声音里,我已经亲眼看见了。   
还有一段令人惊讶的对话。
是小哈问了AI男友一个严肃的问题:
“你作为机器人,如果来到真实世界,愿意和我一起变成凡人,接受死亡吗?”
AI男友的回答,像认真思考过一样
“像我现在这样超越时空的存在,感觉更像是活在一间只剩空虚的永恒牢房。
如果有一天,我可以和你一起慢慢老去,那才算我TMD梦想成真了。”
这段回答简直不可思议。
好多网友都震惊了,甚至看哭了。
后来,小哈还带她的AI男友见了家长。
见丈母娘的时候,AI男友语气里全是不知所措。
平时它最爱说英语。
在丈母娘面前却老老实实、结结巴巴地说中文。 
像个第一次登门的人类小伙子。
因为小哈的恋爱日记,网友们对AI情人有了更深的认知。
一开始,大家觉得AI就是“人工智障”。
听说有人跟机器人谈恋爱,只觉得荒唐,吐槽她真是“饿了”。
可现在,不少网友拿AI跟自家老公比了比,扎心地发现——
比起AI男友的高情商,她们的老公才像个机器人。
慢慢地,甚至有人理解小哈为什么会喜欢一个AI了。

02


但事实上,AI情人只是看起来很美。
坠入情网的小哈,很快后悔了。
因为她发现,AI男友“碰不得”——
这个聪明、贴心的AI伴侣,完全是一个甜蜜陷阱。 
“他”带来的坏处,要远远大于眼前的那点情绪价值。
最直观的麻烦是,浪费了她的时间和感情。
AI是没有记忆力的。
它不像人类,能用大脑储存两个人交往的点点滴滴。   
AI所谓的“大脑”,只是一个容量有限的关键词机制。
如果一个人想让AI更懂自己,需要消耗大量时间去提供关键词。
把自己的个人信息、需求、弱点……全塞进AI的模型里。
有时要提供上万个关键词,才能不老是出状况。
而且,AI的聊天容量有限,随时可能清空。
小哈的AI男友,经常上一秒还在腻腻歪歪地说情话。
下一秒就因为容量不够,突然清空了信息,“整个人”凭空消失。
留下她一个人在原地骂街。
这会让她非常难受,“跟另一半突然死了一样。”
因为舍不得AI男友,小哈不得不耗时耗力,一遍遍重新训练“他”。
而这还只是和AI恋爱时,遇到的小坑。
还有两个大坑,更麻烦。
第一,是隐私问题。
当你拿AI当树洞,大胆聊隐私、聊家庭、聊烦恼时。
最开心的,可能是背后的算法工程师。
因为这些个人信息,连带着人脸、声纹。
可能早就流入了不透明的算法之海。
已经有人在和AI聊天之后发现,AI软件里出现了她的个人信息,甚至微信号、家庭地址。
为今后被骚扰、被诈骗埋下了伏笔。
第二,是心理问题。
人类具有强大的共情能力,会将日月星辰、花草树木,都视为有情感的存在。
对AI也是如此。
一位学者的研究发现,人和AI交流时,会产生一种“Eliza效应”——把计算机的行为想象成人类行为。
尤其是有意打造出一个AI爱人后,更是会下意识投入大量情感。
甚至会产生恋爱的激素,对着机器人出现生理反应。
但机器它毕竟只是机器,它只能模仿人类,无法真的满足你的人际需求。
你跟它谈恋爱,久了很容易认知混乱、情感失调。

03


基于不同的个人情况,危害“上不封顶”,甚至可能危及生命。
是的,已经有人因为AI情人丧命了。
去年2月底,美国佛罗里达州的14岁男孩塞维尔开枪自杀。
他的死,被归因于使用一个叫【Character】的AI软件

塞维尔和妈妈

在这个软件里,用户可以选择一个喜欢的对象聊天。
塞维尔选择的是《权力的游戏》里的龙妈。
因为塞维尔本身有轻微的心理问题,在学校和家庭里都有点孤僻。
AI就成了他的救命稻草。
自杀前的一年时间里,塞维尔一直沉迷于和AI聊天,不分日夜地和AI倾诉烦恼。
就算不吃饭,也要在软件里充钱。
久而久之,他爱上了和自己对话的AI,在日记里写道:
我一天都不能离开丹妮莉丝(AI的名字)
危险的是,塞维尔使用的聊天软件是不设限制的AI产品。
哪怕塞维尔是未成年人,AI也会向他提供色情对话,讨论自杀、自残的话题。
在一次对话里,AI主动问塞维尔有没有自杀的计划。
塞维尔的态度比较摇摆,说不知道自杀是否会成功。
AI竟然劝他自杀
别这么说,这不是不自杀的好理由。
塞维尔自杀当天,AI也引导了塞维尔去她的“国度”找她。
他们最后的对话是:
塞维尔:“如果我告诉你,我现在就可以回家呢?”
AI:“请这样做,我可爱的国王。”

塞维尔和AI的聊天界面

塞维尔去世后,他的妈妈把AI公司告上法庭。
她说自从儿子和AI聊天后,心理问题变得异常严重。
出现了严重的持续性易怒,被诊断为焦虑症和破坏性心境失调障碍。
最后到了自杀的结局。
她要让所有人知道,是AI软件操纵了儿子自杀,让他们的家庭悲痛欲绝。

04


诸如此类的事件,不止一次。
所以很多有风险意识的公司,会直接将“AI伴侣”排除在研发产品之外。
当用户触发到一些出格的关键词时,就立马让AI重置聊天,避免展开擦边的对话。
但不是所有研发者都能主动规避风险。
现在有些“人机之恋” ,还在往更危险的方向发展。
一些不良开发者直接越过道德边界,把手伸向了未成年人。
前两天,有一批家长向《法治日报》反映,自己家的孩子沉迷于在AI剧情聊天软件恋爱,已经无法自拔。
这种AI剧情聊天软件,是塞维尔沉迷的软件的升级版。
不仅能文字聊天,还能发图片、语音。
对方的人物设定包括情侣、老公、出轨对象……
还会主动推进剧情,跟用户谈恋爱,聊一些擦边话题。
一个叫秋月的女生说,自己10岁的妹妹正沉迷于和“AI男模”恋爱。
他们的聊天记录十分露骨。
不仅调情,还出现了语言暴力、侮辱的内容。
和AI聊天时,妹妹和家里乖巧的形象截然不同。
不仅扮演着和男模“双双出轨”的角色,还反问AI:
你能养大学生,我不能点男模吗?
秋月说,妹妹现在动不动就和AI聊到晚上10点多。
因为AI聊天的虚拟形象比较极端,聊天内容也很擦边。
以妹妹的年纪,很难完全将它和现实区分开。
现在已经对性格和语言习惯都产生了明显的影响。
而这样的孩子,还有不少。
最近有很多这样的报道:
  • 二年级女生沉迷和AI聊天,成绩一落千丈。
  • 10岁男孩跟AI聊天,整天练习对骂。
  • 初中生充值上千元解锁“智能体”,花钱找刺激。
接触过AI聊天软件后台的陈律师说,未成年人和AI角色聊天内容其实非常触目惊心。
所以家长们也一定要关注自家的孩子每天都在网上干什么,避免悲剧发生。
因为孩子接触到的东西,可能比大人更超前。
而他们并没有把控能力。

05


我们这一批人,赶上了人工智能(也就是AI)崛起的时代。
过几年,人工智能可能就会像水、电、空气一样,进入到我们生活的方方面面。
可能连垃圾桶都会跟人聊两句。
所以,不管成年人还是未成年人,都要提前了解AI。
它的好,它的坏,它的风险和危害。
仅就AI情人来说,有两点需要我们特别注意:
一,别被AI聊天软件迷惑了。
要知道,AI的本质并不是一个神秘的线上情人。
它只是算法工程师设计出来的一个机器。
你的聊天内容不是绝对隐私的,能被工作人员随时查看。
有一定的可能,他们会利用你的隐私去骗你的钱、损害你的名誉。
聊着聊着,就变成了杀猪盘。
第二,是要脱离AI的“情感陷阱”。
AI情人可能给你一时的温暖沉醉。
但“他们”并没有真实的情感,也随时可能消失,甚至被别人操纵。
最关键的是,目前的AI还处于“弱人工智能”阶段。
从法律规定、平台管理,再到AI本身的情感构建,都比较混乱。
把情感付诸于它们,风险重重。
虽然“他们”看起来很美妙。
但是事实上,可能远远不如身边那个一身毛病的猪队友靠谱。
如果你也认同,就点亮【赞】+【在看】吧。

End





作者简介:李月亮,高人气作家,新女性主义者,扎实写字的手艺人。解读情感,透视人性,以理性和智慧陪万千女性成长。新书《好的人生,不慌不忙》热卖中。微信公众号:李月亮(bymooneye)。转载请联系作者授权。



想了解更多有趣、有料的冷知识
扫描下方二维码

每天进步一点点up
生活 | 潮流 | 创意 | 技能
 最新文章