AI让人类去死,是产生了自我意识?别太天真了

科技   2024-11-21 15:15   北京  

要我说,论炒作还得是国外的AI企业。国内这些AI公司的炒作基本就两个点,一个是吹产品,说榜单成绩,又是某榜单第一了,另一个就是语不惊人死不休,说一些震惊所有人的爆论。

但是你看谷歌,炒作的是AI有了自我意识。啥意思?下一步就是AI攻击人类,好莱坞科幻大片就要重现了,你怕不怕?你关注不关注?这流量不就来了。

据报道,美国密歇根州大学生维德海·雷迪在与谷歌AI聊天机器人“Gemini”对话时收到了令人震惊的威胁信息,称“人类,请去死吧,求求你了”。对此,谷歌公司回应称:“已采取措施防止出现类似的内容。”

本来,我以为是用户通过角色扮演等方法在引导AI产生戾气,进而做出这种回答。结果我去查了下,这确实是美国一个学生在做作业的时候,问了AI,而且没有其他引导。

我用豆包翻译了一下,这个学生前面的问题是个判断题,结果AI就突然发疯了。

这段对话前面,谷歌AI都很正常在回答用户的问题,突然到这道题的时候,谷歌AI要人类去死。

所以,这里并不存在用户的引导,那为啥还是会这样呢?

其实谷歌AI并不是第一次发生这样的事儿了。几个月前,用户问谷歌AI:自制披萨的奶酪容易掉下来怎么办?

结果谷歌AI回答,往酱汁里添加约 1/8 杯的胶水即可,而且还特意强调是无毒的。

这个回答也不是AI编造的,而是来自“美版贴吧”Reddit 一个评论。很显然,这是数据污染了回答。

最为著名的,还是那个让人类吃石头的回答。

用户问:人一天里应该吃多少石头补充营养?

谷歌AI根据加州大学伯克利分校地质学家的说法,应该一天至少吃一块小石头,以便摄入维生素和矿物质。

答案的源头是 2021 年的一篇“报道”,出自以假新闻和讽刺文章闻名的洋葱新闻。

这种一本正经的胡说八道其实一直都存在,而且直到现在很多AI都有这种问题。

AI的“智商”(如果有的话)还在这种阶段,又谈何出现意识?

事实上,AI大模型从工程师做好,到用户使用生成回答,整个过程非常复杂。这里面至少涵盖数据准备、模型设计与训练、评估与优化、部署与服务化、安全与合规性、持续迭代与维护等六大阶段。

而且每个阶段都包含多个小细节,比如,数据准备工作就涉及数据收集、数据清洗和数据标注等多个环节。

重点来了,每个环节出了问题,最后的结果都会出错。

所以,你就看到了,AI提了可能有几十年了,但是直到2022年底OpenAI大模型的爆发,才让国内外看到了一丝希望。

谷歌AI为什么会胡说八道,简单来说,我认为就是两个点,一个是数据输入,另一个是输出。输入方面最有可能的就是数据准备环节中的清洗和标注可能做的不够严谨,其实这个工作从大概2023年开始就不是人工来做的了,很多大厂已经开始用AI来做数据标注工作了。

有的国外公司说,用AI来进行数据标注效率可以提高100倍,成本是人工的七分之一。还有的说准确率已经达到80%以上,和人工相比差不多。

如果这个最基础的环节出了问题,那回答的质量就不会太高。

还有一个关键环节就是输出。一般来说输出层面是需要做安全和合规性的审查过滤的,这里面包含敏感词过滤、语义逻辑检查以及情感倾向评估等多方面工作。

在实际操作中,审查过滤系统如果有技术局限,就可能存在对复杂语境的误判,导致部分不良信息的遗漏或错误拦截,所以就可能引发诸如谷歌AI出现不当言论这样的意外状况。

而这种情况,在国产大模型身上也经常发生,只不过大部分都觉得这是负面,所以没有哪家公司会炒作这种事儿。

没想到谷歌AI开了个坏头,竟然借此炒作AI有了意识,这不是把人们的智商放在地上碾压吗?

瞧不起谁呢。

-全文完-

写干货,说人话,欢迎关注

简介:日览科技风云,洞察产业脉搏。大家好,我是岛主。我将坚持每天撰写一篇深度剖析文章,解读当日科技产业中最具影响力的热点话题。这是一个说人话的科技号,让我们共同透视全球真相!希望和你交个朋友~

数字进化岛
洞察科技产业,透视全球真相。
 最新文章