关注AilinGo并设为“星标⭐”,别错过你该知道的AI💝
昨晚看了个视频:Geoffrey Hinton谈人工智能的“生存威胁”/Geoffrey Hinton talks about the “existential threat” of AI(文末附原视频链接)。
关于Hinton何许人和他的观点前文两篇:
观后感:从物种来说,到时机器人可以算是一种新物种/新生命(谁说物种和生命非要基于碳基不可?硅基就不行?),它们会有自己的演变和进化,而且从智能方面来看,它们显然是超越人类的。不过这倒不是说一定会取代人类,想想地球上也有千万种生物,人类并不会把它们全消灭。再者,生命在宇宙尺度的作用是能量的储存,转换和传输,碳基的人类都意识到了这一点,更高的智慧肯定也懂。
视频的要点概括如下:
- 为什么Hinton要离职?
- 他的担忧是什么?
- AI 本身没有欲望,为什么会做出威胁人类的事情?
- 等 AI 有威胁了拔电源不就好了?
- 既然 AI 的模型是人类设定的,怎么还可能会失控?
- AI 的训练达到数据极限了吗?
- AI 对未来社会尤其是失业率有什么影响?
离职的两个主要原因
一是已经75岁高龄,精力不如前,到了退休年龄;
二是大语言模型完全改变了他对人工智能的看法,并引发了一些担忧,离开谷歌才好公开谈论此事。
大语言模型的学习能力极强
因为可以有很多相同模型的副本在不同的硬件上运行做同样的事情,可以看到不同的数据。有 10,000 个副本,它们就可以查看 10,000 个不同的数据子集。只要其中一个学到了任何东西,其他所有模型都会知道!他们彼此之间进行通信,并且所有模型都在一起学习提升,人类无法做到这一点。
如果某人通过痛苦的学习掌握了某项知识(例如量子力学),他没办法把学习成果直接复制给另一个人,而 AI 可以!
另外对于人来说,每个个体接触的信息是有限的,但是 AI 能接触的信息是海量的,那么它更容易从海量数据中找出其中的规律。比如一个医生,可能给一千个人看过病,其中有一个罕见病,但是 AI 可能看过一亿个病人,能从中看到人类永远看不到的数据规律。
推理与智商
Hinton问过 GPT-4 一个问题:
“我希望我家所有的房间都是白色的,目前,有些是白色的房间,有些是蓝色的房间,还有些是黄色的房间,黄色的油漆在一年内会褪成白色。那么如果我希望两年后它们都变成白色,我该怎么办呢?”。
GPT-4的回复:“你应该把蓝色的房间涂成黄色。” 这确实令人印象深刻,Hinton以此推断,GPT-4 有大约 80 到 90 的智商,并且有一定的推理能力,但未来智商可能会达到 210。
操控与限制
AI 能通过阅读人类的小说来学习如何操纵人类,而人类甚至不能感知到被 AI 操控。就像大人为了哄骗小孩子吃蔬菜,会问孩子:“你想要豌豆还是花菜?”,通常孩子就会选择一样蔬菜,而孩子没有意识到其实不是必须二选一的。
主持人问 Hinton:“为什么我们不能建立防护栏或者让 AI 在学习方面变得更糟,或者限制 AI 之间交流?”
Hinton 认为当 AI 的智商比我们高很多,它们可以轻而易举的绕过我们设定的限制。这就像你两岁的孩子说,我爸爸做了我不喜欢的事情,所以我要为他制定一些规则限制他能做的事情。然后你在搞清楚规则后,还是一样能在规则之下做几乎任何你想做的事情。
关于进化
另一个讨论的话题是进化:人类进化了,所以人类是天然有目标的,比如疼痛让人类保护自己尽量不受伤;饥饿让人类要吃东西;繁衍后代让人类创造副本时感到愉悦。
AI 没有进化,没有这些目标,但Hinton担心的是,人类是能给 AI 制定目标的,一旦 AI 有了从目标创建子目标的能力,实际上 GPT-4 已经有初步的这种能力了比如 AutoGPT,那么 AI 很快就会意识到获得更多的控制人类是一个非常好的子目标,因为这可以帮助它实现其他目标,如果这些事情失控,那人类就会有麻烦。
Hinton甚至认为人类只是智慧演变过程中的一个短暂阶段!也就是之前说过的硅基生命的引导程序。数码智能是不能凭空创造出来的,它需要能量和精密制造,只有人类才能创造数码智能,但是当数码智能创造出来后,数码智能就可以吸收人类的一切知识,了解世界如何运作的,最终统治人类,并且数码智能是永生的,即使数码智能的某个硬件毁灭了,马上又能在其他硬件上复活。
拔电源?
主持人说,那拔电源就好了!Hinton说,恐怕你做不到,想想电影《2001 太空漫游》里面的人工智能 HAL 是怎么做的。
电影《2001 太空漫游》中,一艘发现号太空船被委派到木星调查讯号的终点。太空船上的人员包括大卫·鲍曼博士、法兰克·普尔和一台十分先进且具有人工智慧的超智慧电脑 HAL 9000 来控制整艘太空船。此外,太空船上还有三位正在处于冬眠状态的科学家。但是远航之旅逐渐变成一趟可怕的旅行,HAL 发现大卫与法兰克打算将他的主机关闭。对 HAL 来说,关闭它的主机代表会杀死它,所以 HAL 决定先发制人,杀害了那三位冬眠中的科学家并用制造假故障让法兰克去太空船外修理,然后用 HAL 的小型艇将法兰克的氧气剪断,导致法兰克缺氧而死。
既然人工智能已经这么危险了,那么我们能停止它吗?就像前不久一群人提议暂停人工智能的发展。Hinton认为已经不可能停止了,Google在2017年发明 Transformer 后,使用这项技术一直很谨慎,但是 OpenAI 利用它创建了 GPT,然后微软决定推出这项技术,此时 Google 已经没什么选择了,就像冷战时候的核武军备竞赛一样。
观众提问环节,摘选几个问答:
问:“提问是人类最重要的能力之一,从 2023 年的角度看,应该最关注哪一个或者哪几个问题?”
答:“我们应该问 AI 很多问题,其中之一是,我们如何阻止它们控制我们?我们可以向 AI 询问关于这个的问题,但我不会完全相信它们的回答。”
问:“训练大模型需要大量数据,现阶段 AI 的发展是否受到了数据的制约?”
答:“差不多已经用尽了人类所有的文本知识,但是多模态还包含图像和视频的数据,这其中包含大量的数据,所以现在还远没到数据的极限”
问:“人工智能所做的一切,都是从我们教给它们的东西中学到的。人类进化的每个阶段都是由思想实验推动的,如果 AI 不能思想实验,那么我们怎么可能受到它们存在的威胁?因为他们不会真正地自我学习?他们的自我学习将局限于我们为他们提供的模型。”
答:“AI 是能进行思想实验的,他们能进行推理。举个例子,AlphaGo学完人类的棋谱后,并且它掌握了围棋的规则后,就能自己训练自己。现在的聊天机器人就是类似的,他们还没学会内部推理,但是用不了太久就能学会了。”
问:“技术以指数级的速度在发展,如果你观察近期和中期,比如说,一、两、三或者五年的时间范围,或许新的工作岗位正在被创造,从社会角度看失业对社会和经济的影响是什么?”
答:“人工智能确实极大提升生产力,但是生产力提高反而会导致失业,富人更富,穷人更穷!当基尼系数变大,社会将会越来越暴力,通过给每个人提供基本收入可以缓解这个问题”。
原视频链接:
https://www.technologyreview.com/2023/05/03/1072589/video-geoffrey-hinton-google-ai-risk-ethics/
END