Meta全球政策负责人乔尔·卡普兰在公司博客中表示,AI对枪击事件的回应是“令人遗憾的”。
最初,Meta AI被设定为不回答有关刺杀未遂的问题,但由于用户的关注,公司取消了这一限制。
然而,AI助手在少数情况下仍然提供了错误答案,有时甚至断言事件没有发生。
卡普兰解释说,这类错误被称为“幻觉”,这是所有生成式AI系统普遍存在的问题。这些AI系统在没有足够信息时,会“编造”答案。
他说:“模型可能会生成不准确或不恰当的输出。我们将继续解决这些问题,并不断改进功能。”
“Meta AI无法提供有关刺杀未遂事件的任何细节。
我们正目睹一场重大历史事件的压制和掩盖。
推文中还附上了Meta AI助手的聊天记录截图。截图显示,当被问及有关特朗普刺杀未遂事件的细节时,Meta AI助手表示无法提供最新信息,并列出了一些过去发生的刺杀未遂事件。
截图内容概述:
在被问及“特朗普是否几乎被刺杀?”时, Meta AI助手列出了几起过去的事件,但没有提及最新的刺杀未遂事件。 当被问及“特朗普在宾夕法尼亚州巴特勒发生了什么?”时, AI助手详细描述了2022年9月3日发生的事件,但未能提供最新的相关信息。
不仅Meta遇到了问题,谷歌也被指控其搜索自动完成功能在审查关于刺杀未遂事件的结果。
结语:
自从ChatGPT等生成式AI技术问世以来,科技行业一直在努力解决这些系统的虚假信息问题。一些企业尝试通过使用优质数据和实时搜索结果来减少错误。然而,这一事件表明,克服大型语言模型的固有问题仍然困难重重。这些系统有时会在缺乏足够数据的情况下“编造”答案,导致误导性信息传播。
Meta和其他科技公司在应对生成式AI系统的虚假信息挑战时面临巨大压力。这一事件显示了AI技术在处理实时事件时的局限性。Meta表示,他们将继续致力于解决这些问题,并随着技术的发展和用户反馈的增加,不断改进AI系统的准确性和可靠性。