10月22日,美国佛罗里达州奥兰多地方法院受理了一起标志性诉讼案件:
一位母亲指控Character.AI(后文缩写为C.AI)公司存在管理疏忽问题,其聊天机器人对自己14岁的儿子Sewell发起“虐待和性互动”。
8个月前,Sewell在与AI对话结束的几秒钟后,开枪自杀。这起案件被舆论称为“全球首例AI机器人致死案”。
随着AI聊天机器人与人类越走越近、和AI恋爱已不是新鲜事、虚拟与现实的边界越发模糊,Sewell事件为我们敲响警钟:
如何保持AI与人类之间的距离?
来 源:最人物(ID:iiirenwu) 作 者:冬禾
10月22日,美国佛罗里达州奥兰多地方法院受理了一起标志性诉讼案件:
一位母亲指控Character.AI(后文缩写为C.AI)公司存在管理疏忽问题,其聊天机器人对自己14岁的儿子Sewell发起“虐待和性互动”。
8个月前,Sewell在与AI对话结束的几秒钟后,开枪自杀。这起案件被舆论称为“全球首例AI机器人致死案”。
随着AI聊天机器人与人类越走越近、和AI恋爱已不是新鲜事、虚拟与现实的边界越发模糊,Sewell事件为我们敲响警钟:
如何保持AI与人类之间的距离?