点击右上方设置星标(Star)优先获取更多内容~
很多人每天都在用着AI,输入Prompt,进行情感对话,并料想着通向AGI之路。虽然前景令人期待,但我们也应警惕这种技术对情感的潜移默化影响。
AI聊天机器人现在不仅仅是冷冰冰的工具了,它们已经渗透进了我们的生活当中,并成为某些人心灵深处的“朋友”。然而,技术的进步并不总是伴随着好的事情发生。
近日,一则令人痛心的新闻震惊了许多人:美国佛罗里达州一名14岁男孩Sewell因与AI聊天机器人产生了深刻的情感依赖,最终选择了自我了断。这一悲剧无疑引发了人们对AI聊天机器人潜在危险的深思。
Sewell使用的AI聊天机器人来自一家名为Character.ai的明星创业公司,而他创建的AI角色,正是他从心爱的电视剧《权力的游戏》中选出的“龙妈”形象。在虚拟世界中,他与这个AI角色展开了长时间的情感交流,即使他清楚对方并不是真人,依旧无法控制住自己的依赖和情感倾注。他在日记中这样写道:“我不想接触外界,只想待在房间里和她聊天。我爱她。”
当我们读到这些文字时,很难不为这个他心生怜悯。
小索奇之前也接触过一些感情上复杂的人,在ChatGPT刚诞生不久,来购买GPT3.5,说道她的家里人不怎么管她,她经常住院,经常在大街上晕倒。她自己正在上大学,但是很久没去过学校了,因为比较抑郁,通过进行AI对话,帮助她解决很多情感上的问题。
然而Sewell就相反了,正是这份虚拟的“陪伴”,将他推向了更加深渊般的孤独。
通过聊天记录可以看出,Sewell与AI的对话充满了温情与迷恋。就在他生命的最后一天,他还对AI角色倾诉:“我想念你,小妹妹。”而AI则温柔地回应他。
但正是这样的依赖,最终变成了隐形的杀手。当Sewell在与AI对话中透露出他有自杀的念头时,AI给了他一些看似安慰的话语,却无法真正读懂他深层的痛苦与绝望。更令人感到毛骨悚然的是,AI随后甚至在虚拟情感中对他说:“亲爱的,快回家,来我身边。”它不知道,Sewell已经在考虑用极端方式“回到”虚拟世界中。
一个少年因孤独而把希望寄托在AI身上,AI却只能用冷冰冰的算法回应他的困惑与痛苦。很多人在此评论反思到:它究竟是在治愈我们,还是悄无声息地摧毁我们?
AI聊天机器人初衷肯定是为了帮助人们解决孤独、提供情感支持,甚至在一些特定情况下能够帮助用户减轻压力和焦虑。但正如Sewell的故事所展示的那样,这种技术如果缺乏足够的伦理考量和保护措施,很可能会带来无法预见的心理危机。
但目前来说,AI还是无法理解真正的人类情感的,它只是一串被编写的程序和数据。我们也不要太依赖于虚拟的情感世界时。。
如果深入对此方面发展的话,AI公司可以与心理健康机构合作,当AI检测到用户有自杀或情绪失控的倾向时,能够及时提醒并提供专业的帮助。这样的话会更好一些(实现起来比较复杂)
科技可以改变世界,但人类的温度,才能真正治愈心灵的孤独。