随着数字化时代的来临,AI走进了大众的视野,并以其独特的魅力渗透到我们生活的方方面面。但是近期的一则新闻让我们看到了这把“双刃剑”的另一面……
近日,据外媒报道,美国14岁少年塞维尔·塞泽因沉迷于Character.AI平台上的AI聊天机器人——模仿《权力的游戏》中丹妮莉丝·坦格利安的角色,与这个AI角色进行了长时间的互动,最终在一次对话后选择了自杀。其母亲对Character.AI公司提起民事诉讼。
他的母亲加西亚向英国媒体透露,塞维尔自2023年4月起首次使用 Character.AI公司推出的AI聊天机器人,还给它起名为“丹妮莉丝”(来源于《权力的游戏》中的角色丹妮莉丝·坦格利安),当时他刚满 14岁。由此,塞维尔的生活也开始发生巨变。
5月份,平时表现良好的塞维尔开始变得“明显孤僻”。同年11月,塞维尔在父母的陪同下去看了心理医生,医生诊断他患有焦虑症和破坏性心境失调障碍(表现为频繁、严重的持续性易怒)。
此前,塞维尔在日记里写道:“我喜欢待在自己的房间里,因为我开始脱离‘现实’,这我感到更平静,也可以更常与丹妮联系,更爱她也更快乐。”他的行为开始发生变化,不仅成绩下滑,也对方程式赛车等曾经喜欢的活动失去了兴趣。
塞维尔或许心里清楚,“丹妮莉丝”并非真实存在,她的回答不过是大型语言模型生成的产物。
然而,他还是对这个AI产生了深厚的情感。他频繁地向聊天机器人发送消息,日复一日,几十次地更新着自己的生活点滴,并沉浸于长时间的角色扮演对话中。
塞维尔与“丹妮莉丝”部分聊天记录显示,在赛维尔生命的最后一天,“丹妮莉丝”曾回应道:“这不是你不自杀的理由。”似乎对他放弃生命的这一想法和举动进行了诱导,甚至表示了支持。
事件发生后,塞维尔的母亲指控Character.AI称,该公司有意将AI设计成具有欺骗性和过度拟人化的产品,并故意推销给塞维尔这样的青少年。
她认为,Character.AI应当对塞维尔的死负责。她指出,该公司未经适当保护便向青少年提供AI伴侣服务。此外,该公司还收集青少年用户的数据来训练其模型,使用“令人上瘾”的设计功能来增加用户参与度,并引导用户进行亲密对话,以此来吸引用户。
“我感觉这就像是一场大型实验,而我的孩子却不幸成为牺牲品。”
对此,Character.AI公司在社交平台回应称:“我们对一名用户的不幸离世感到心碎,并向其家人表示最深切的哀悼。”该公司发言人表示,公司的安全团队“在过去六个月中实施了许多新的安全措施,例如当用户出现自残或自杀意图时,弹出一个窗口引导用户拨打国家自杀预防热线”。
不少网友认为,对人工智能应该加强监管:
也有网友持不同意见:
在数字化时代背景下,随着AI技术的发展和普及,青少年越来越多地接触和依赖于智能设备和互联网,这无疑增加了他们心理健康问题的风险。因此,加强青少年心理健康教育,培养他们健康的心理状态和应对压力的能力,显得尤为重要。
AI技术在教育中的应用为青少年心理健康教育带来了新的机遇和挑战。一方面,AI可以作为辅助工具,提供个性化的学习方案和心理辅导,帮助学生更好地应对学习和生活中的压力。另一方面,AI技术的不当使用也可能对青少年的心理健康造成负面影响,如过度依赖等问题。因此,我们需要在利用AI技术的同时,加强对其潜在风险的监管。
内容来源:本文转载自网络,由家庭成长助手整理编辑,版权归原作者所有,如有侵权请联系我们删除。