AI学会造谣,比人骗人还可怕?

创业   2024-10-29 20:31   广东  

万万没想到同学们,AI已经学会了自己造谣。


美国乔治敦大学的法学教授乔纳森·特里,莫名其妙地被 ChatGPT 说成是性骚扰他人的法律学者,甚至编造出了详细的性骚扰情节。这位一生清正的老教授,就这样被 AI 玷污了声誉。


类似的事件并非个例,澳大利亚赫本郡的军长布莱恩·胡德,本是揭露某公司行贿案的功臣,却被 AI 诬陷为参与行贿的罪人,并被判刑,真可谓是“人在家中坐,祸从天上来”。


不仅如此,AI 还会泄露人们的隐私。在《黑神话:悟空》发布不久,国内某科技网站的一名员工在 5 小时内接到约 20 多个骚扰电话,原因竟是微软的 Bing 将他的私人电话公布到了网上。还有前段时间,有人与某 AI 的对话引发了网友的惊悚。


当询问最近的麦当劳在哪时,AI 能准确回答出地址甚至邮编,然而当被追问是如何知道的,它却矢口否认窃取了用户隐私。有网友用同样的问题测试其他 AI,也有出现类似“翻车”的情况。


那么,为什么 AI 会出现这种放飞自我、胡编乱造的情况呢?这其实是“AI 幻觉”在作祟。简单来说,就是 AI 在生成内容时,会创造出一些不存在或看似合理的事实,就像一个沉浸在梦境中、把梦当作现实的孩子。


据相关数据显示,目前约有15%的用户曾遭遇过 AI 提供错误或误导性信息的情况。而因 AI 错误信息导致的经济损失,每年也在以 6%的速度增长。


面对 AI 的这把双刃剑,我们该如何应对呢?


首先,要保持警惕。不要轻易被 AI 看似准确的回答所迷惑,对于涉及个人隐私的内容,切勿随意与 AI 交流。在使用 AI 生成信息或获取答案时,要多问几个“为什么”,并主动关闭定位、照片访问等可能泄露隐私的功能。


同时,从技术层面,开发者和相关机构应当加强对 AI 算法的监管和优化,建立更加严格的数据保护和使用规范。例如,要求 AI 系统在处理数据时进行多重验证和审核,确保生成的内容真实可靠。


在法律层面,也需要及时跟上科技的发展步伐,制定专门针对 AI 错误信息和隐私泄露的法律法规,明确责任和处罚标准。


总之,AI 的发展是不可阻挡的趋势,但我们必须采取有效措施,避免其带来的负面影响,让 AI 更好地服务于人类,而不是给我们带来麻烦和伤害


观看下方视频

为1%的人捕捉商业先机

AI头版
共同进化,洞悉AI科技前沿趋势
 最新文章