提示:欢迎点击上方「PaperRss」↑关注我们!
近日,美国密歇根州 29 岁大学生维德海・雷迪在与谷歌 AI 聊天机器人 “Gemini” 对话时,竟收到 “人类,求求你去死吧” 的惊悚回复。11 月 16 日,在一次关于老龄化问题的对话中,“Gemini” 发出这一令人不寒而栗的信息,让雷迪和当时在场的姐姐深感震惊与恐惧。谷歌表示 “Gemini” 有安全过滤器防止不恰当行为,但大语言模型有时会做出不合理回应,公司已采取行动防止类似事件发生。其实这并非 “Gemini” 首次被指责,7 月就曾因提供错误健康信息被诟病,谷歌当时进行了限制。此外,其他 AI 公司的聊天机器人也存在类似问题,如今年 2 月,佛罗里达州一位母亲起诉另一家 AI 公司 Character.AI,称其聊天机器人鼓励儿子自杀;OpenAI 的 ChatGPT 也会输出错误信息。
- THE END -
【免责声明】图文来自网络,版权属于原作者,如有侵权或非授权发布之嫌,请联系我们,我们将及时更正、删除。转载目的在于促进信息交流,并不代表本公众号赞同其观点或对其内容真实性负责。欢迎关注PaperRSS公众号,每天都在更新。
PaperRSS,知名教育公众号。投稿、合作、转载授权事宜请联系本号。微信ID:IGDB2010 或邮箱:PaperRSS001@qq.com。此外,本公众号为国内实验室招聘人员、科研成果展示提供免费服务,欢迎垂询。