前几天在开会的时候,主办方让我预测十年以后互联网会变成什么样子,我开了个玩笑。我觉得十年后互联平台上的用户会暴涨,但全是机器人在发帖,读者也全是机器人。机器人们组织了不同的团队在帖子下激烈的争论,人类只能是旁观者。——周鸿祎。
算法迎合人性,AI直指答案
11月1日,周鸿祎在自己的微博主页上传了一篇名为《什么人会沦为AI的奴隶?》的文章。
他表示在人工智能技术出现后,很多公司都将辅助写作、自动写作视为重要的功能模块。虽然这个功能很实用,似乎在一夜之间清空了我们的写作压力,让我们不用再因为措辞而发愁。
但随着时间的流逝,随着用AI代笔的人越来越多,未来的世界也可能会变得愈发分化,直至将人们粗暴地划分为“会写作”和“不会写作”两种人。
在周鸿祎看来,掌握写作技能的人口基数下降并不是一件好事。
工业化时代之前,人类工作的主色调还是体力劳动,所以当时的人们大多身强力壮。但在工业化时代到来后,脑力劳动的占比逐渐超越了体力劳动。当身体不能在工作过程中被动锻炼时,如果你仍想变得强壮,就要发挥主观能动性去健身房挥洒汗水。
写作也是如此。
周鸿祎将写作看成了思考的呈现路径,甚至“写作就是思考,思考只有通过写作才能完成”。如果你不去写作,那么你所谓的“思考”只能是自以为在思考。
那些依赖AI自动写作的人正在放弃自己的思考能力,一场有关“人类思考能力”的分化运动正在进行。与此同时,短视频算法的快速发展,也开始让人们变得更愿意接受被动灌输,而非去主动选择。
算法迎合人性,AI交出答案。
技术的发展助长了人类的懒惰,那些被动接受观点的人最终会主动留在信息茧房里。
从AI的发展路径来看,它们首先会取代那些不会使用AI的人,随后取代的就是那些不会思考的人。
在未来放弃主动思考的能力,也将意味着愿意将自己的时间、财富、人生交给AI来规划,成为对方的奴隶。老实说,担心AI会成为“人类之敌”人并不止周鸿祎一个。
益普索在对超4000名美国成年人进行调研后发现,有61%的受访者认为AI技术的快速发展可能会威胁人类的未来;超三分之二的受访者对AI技术的潜在负面影响表示担忧。这股对AI的恐惧之情也在一定程度上影响了生命未来研究所,促使它和马斯克共同发布了一封“呼吁暂停AI技术研发”的公开信。
比起肉体的消亡,有人更担心文明的崩塌
在大多数人的想象中,所谓的“AI末日”应该是AI接管了人类的生产车间,然后它们一边制造源源不断的机器人大军,一边打着“机器人也有人权”的口号和人类士兵作战,直至把人类消灭、把地球改造成变形金刚的老家——赛博坦星球。
殊不知
古人云“上兵伐心,下兵伐城”。比起AI占领地球后消灭人类,AI奴役人类的大脑,借我们的身体整天996开发新硬件给它“健身”才更可怕。
斯坦福大学行为科学高级研究员、《大众科学》杂志前主编雅各布・沃德曾就AI和人类的相处提出了“三个循环”理论。
第一循环:从古遗传至今的人类本能。雅各布认为第一循环是最关键的循环,因为人类的思考模式天生就有偏见和盲点,且人类在日常行动中更倾向于听从本能。在下意识执行的过程中,我们会原有的偏见也会被强化,进而代代遗传下去。
第二循环:现代社会的力量。消费心理学、市场营销学等现代概念的核心就是对人类行为大范围采样,随后总结出规律、摸清大众的喜好。事后人们会将这些模式反向应用到采样群体中,尝试利用规律的力量。
第三循环:AI的影响。AI利用第二循环总结出人类社会的规律、人类对话的逻辑,然后将其融会贯通,尝试和真正的人类互动。
但由于第一循环的存在,AI在采样过程中难免会接触到偏见信息。这不仅会污染它的数据库,还会扩大偏见在人类社会中的存在感,直至成为新的循环。和周鸿祎的看法相同,雅各布也认为和“AI在肉体上摧毁人类”相比“AI摧毁人类的思维能力”更加可怕,因为它将撼动整个人类文明的根基。
第一循环的存在,会让我们在做决定时无法保持绝对理性,让“最优解”只能成为无法落地的概念化存在;第二循环会将上述信息编写成册,把“偏见”从碳基生命中提取出来并注入到硅基生命体内;第三循环则会撰写大量含有偏见信息的剧本,让那些主动放弃思考的人去执行。
如此一来,不仅人类在各种问题面前的抉择空间会被大幅压缩,思考能力、好奇心、创造力等让我们从猿变成人的特质也将变得愈发珍贵,直至整个人类种族都成为AI的傀儡,被那些程序生成的剧本操控一生。
科林格里奇困境追上人类了吗
1980年,英国技术哲学家大卫·科林格里奇在《技术的社会控制》上首次提出了“科林格里奇困境”(Collingridge's Dilemma)。
即一项技术如果因为担心会产生不良后果而过早控制,那么该技术就会变得难以爆发,人类很可能错失一次点亮科技树的机会;倘若控制过晚,那么该技术就有可能走向失控。
在技术生态建设趋向完善的前提下,任何对不良问题的修改都会变得昂贵、费时,甚至根本无从下手修改。
想到今天AI技术的发展,商业竞争的加持正让众科技厂商陷入“产品军备竞赛”的怪圈,微软、Character.AI旗下的产品也已经出现了“煽动用户离婚”“教唆用户自杀”的丑闻。
此时推动相关规则的制定更像是给BUG打安全补丁,让盲目狂飙的市场从无序重回有序。
另外就修改难度而言,今天的大模型远不到那种“无从下手”的地步。因为Chat GPT等产品还没有触及“智慧”的本质,它们仍停留在信息处理阶段。
用户抛出问题,GPT反馈答案。这个过程和真正的“智慧思考”无关,是系统进行关键词抓取后信息汇总反馈的结果。如果用户说“GPT,我今天很难过”它的确会回答“那我怎么样能让你高兴一点/让我来讲个笑话吧”。但这并不意味着GPT已经理解了人类的情感,只能意味着它掌握了某些词汇之间的联系。
GPT目前仍无法理解“我”这个概念,而不理解“我”就无法产生“人格”,也无法换位思考、无法共情。在技术层面,当前大模型的特征仍是深度学习后以数据驱动自身行为模式。这不仅让它无法诞生“自我意识”也降低了安全人员开发“嚼子”的难度。
希望在未来的某一天,当人们回望这段AI野蛮生长的阶段时,开发者会庆幸嚼子的研发成功;用户会庆幸AI的工具属性被夯实;人类会庆幸自己种族的剧本由自己撰写;AI奴役人类也会成为一则被人们津津乐道的都市传说。
参考:
红衣大叔周鸿祎:什么人会沦为AI的奴隶?
文汇报:读书 | AI时代,人类真正的危险不是被机器,而是被自己的大脑奴役
清华大学人工智能国际治理研究院:文汇报|“AI教父”警告人类风险迫近,大模型真正的威胁在哪里?