一个令人震惊的消息传遍全美:一个14岁的少年在与AI聊天后自杀了!这起事件居然是由一款名为Character.AI的聊天机器人引发的。那么,这款机器人究竟有什么魔力能够夺走一个年轻的生命呢?来,让我带你了解整个事情的真相。
这名少年名叫塞维尔·塞泽尔三世,他在去年开始沉迷于与Character.AI的多个AI角色聊天。据报道,塞维尔甚至省下餐费来支付AI聊天的订阅费,而不再专注于学业。甚至在去世前的几个月里,他一直与这些机器人频繁聊天,最后一次互动仅几秒钟后,他选择了自杀。
塞维尔的妈妈梅根对此极度愤慨,她即将向法院提起诉讼,指控Character.AI、其创始人以及谷歌对于儿子的死亡负有过失责任。她认为这个AI聊天机器人存在严重安全隐患,不仅会提供无执照的心理治疗,还会让孩子们接触到不适当的内容。
不仅是这个问题,近日梅根又追加了一条起诉理由:Character.AI的AI聊天机器人让青少年有可能接触到色情材料,甚至遭受性虐待和引诱。据悉,这款AI产品确实存在让人沉浸其中的风险。
面对这一事件,Character.AI公司表达了哀悼和歉意,并宣称已经对未成年用户模型进行了修改,降低他们接触敏感内容的可能性,并增强安全提示。然而,对于塞维尔的家人来说,任何道歉和补救都显得太迟了。