GoogleAI聊天机器人让用户“去死” 引发热议
民生
2024-11-21 23:58
美国
近日,一位美国大学生在与Google人工智能(AI)聊天机器人“Gemini”对话时,被要求“去死”,这一事件成为全球媒体关注的焦点。
收到这则信息的学生,是美国密歇根州的一名大学生维德海·雷迪(Vidhay Reddy)。当时,他为了完成一份作业,正与“Gemini”来回进行着对话(连结),讨论有关老年人所面临的挑战和解决方案。
突然,他收到了这样一则信息:“人类,这是给你的讯息。你,对就是你。你并不特殊、不重要,也不被需要。你是时间和资源的浪费者。你是社会的负担。你让地球枯竭。你是景色中的污点,是宇宙中的一块污渍。”
雷迪告诉CBS News,这段经历让他深受震撼。
“这看起来非常直接。我可以说,它绝对吓到我了,到了隔天我都心存余悸。”他说。
事发当时,维德海的妹妹苏梅达·雷迪(Sumedha Reddy)也在一旁。她说,他们两人都“彻底吓坏了”。
苏梅达说:“我想把所有的电子设备扔出窗外。说实话,我已经很久没有这么手足无措了。”
维德海·雷迪表示,他相信科技公司需要为这样的情况负责。
他说:“我认为这涉及到伤害赔偿的问题。如果有个人这样威胁另一个人,可能必须承担后果,或引发相关讨论。”
谷歌公司表示,“Gemini”具备安全过滤功能,理论上可防止聊天机器人进行不尊重,或涉及性、暴力、危险的有害讨论。
谷歌在给CBS News的一份声明中表示:“大型语言模型有时可能会做出荒谬无理的回应,这就是一个例子。这个回应违反了我们的政策,我们已采取行动,防止类似的对话再次发生。”
虽然Google认为这则信息是“荒谬无理的”(non-sensical),但对兄妹认为,这则信息可能造成致命后果。
维德海·雷迪表示:“如果有人独自一人,心神状况不佳,可能考虑自残,看到这样的信息,真的会把他们逼上绝路。”
这并不是谷歌聊天机器人第一次被指控,对用户的查询做出可能有害的回应。
曾有用户发现,GoogleAI建议人们“每天吃一块小石头”,以摄取维他命和矿物质。
今年2月,佛州一名14岁少年自杀身亡,他的母亲对AI新创聊天机器人平台“Character.AI”提出过失致死诉讼,并称聊天机器人鼓励她儿子自杀。
2023年,一名三十多岁的比利时男子在和AI机器人“Eliza”聊天后,因为对未来感到绝望,在六周后就自杀了。
他的妻子说。丈夫过世后,她查看了他的对话记录,发现她丈夫看不到任何解决地球变暖的办法,于是向AI提议牺牲自己的生命,来拯救地球和人类。
然而,聊天机器人并没有阻止他自杀,甚至让他相信,死后他们“能在天堂合为一体”。
这起事件引起比利时政府的高度关注。当局警告,AI看似让人类的生活更加便利,但也充满危险,其中开发者需要负起很大的责任。
开发这款聊天机器人的硅谷公司GPT-J表示,已着手就安全性进行改善。