我所说的一切都可能是错的!
即使你赞同我的观点,
你的生活也不会因此有任何改变!
除非——你采取了相应的行动。
(这是书先生的第374篇原创分享。2024年7月25日,于新加坡)
你好,我是一直在读书的书先生。
昨天上午,我接受了新加坡本地杂志《华汇》的一个小采访,主题是对 AI 的看法。
(顺便一提:这个杂志去年也采访过我,主题是终生学习。那期杂志这个主题还是封面话题。)
其中一个问题是问我是否担心 AI 会取代人类。我的回答是:完全不担心。
我给的理由是,大模型,至少大语言模型,还不具备人类的推理能力。它在回答问题上表现出的语言能力,或许能够以假乱真了,但人类的推理能力和语言能力并不是一回事儿。语言并不是推理的必要条件。
采访结束后,我又想了想,其实人脑仍然在很多方面能力远超当前的 AI,甚至在可预见的将来,这些能力也是 AI 很难企及的。
下面,我们就来看看人脑到底多厉害。
以下对人脑强于 AI 的总结,基于我目前的知识,如有疏漏之处,欢迎留言指出。
首先,我们来看看人脑的“神经网络参数”。
大家都知道,这几年 AI ,尤其是大语言模型,发展迅猛,几乎都是大力出奇迹的结果。
第一代 ChatGPT 背后的大模型是 GPT3.5,它的参数规模是1750亿。当参数规模达到这个量级后,大模型似乎涌现出了智能, ChatGPT 的表现于是惊艳了世人。
尝到了甜头,OpenAI 再接再厉,在 GPT4 里把参数规模提到了一万亿。目前,和 GPT4 在能力上并驾齐驱的两个大模型,Claude 3.5 和 llama3.1 的参数规模分别是约一万亿和4050亿。
是不是觉得这个参数规模很吓人。但如果和人脑比起来,就是小巫见大巫了。我问了 ChatGPT 关于人脑“神经网络参数”的问题,它是这样回答的:
它给出的估算数据是86万亿参数,这个数字还是保守的估计,但已经对现有的大模型参数规模有数量级的碾压优势。
请注意,这只是一个粗糙的类比,实际上,人脑的工作原理远比 AI 背后的神经网络要复杂。
除了参数规模,人脑超高的能效比也是目前 AI 望尘莫及的。人脑的功率约为20瓦,也就是50个小时才用一度电。
也就是说,我们人类,每天顶着个参数达百万亿规模的“大模型”,进行各种复杂推理,连续工作两天都用不到一度电。
再来看大模型。以 GPT4 为例。它的参数规模估计在一万亿以上,至少需要 128 个 A100 GPU 集群才能运行。我们把什么 CPU、内存、存储、冷却、节点功耗等等都忽略不计,仅就这128个 A100,总功率就在51.2KW,足足是人脑的2560倍。
目前 GPT 参数规模只有不到人脑的2%,能效比的差距已经如此之大。如果 GPT 的下一代或下几代参数规模达到人脑级别,不知道功耗有多大。我都不敢想象,因为功耗和参数规模并不是线性关系。
就是这种超高的功耗,GPT4 仍然只能处理单一模态的任务。现在虽然有所谓的多模态模型了,但仍然只能针对特定任务(只不过任务种类多了一些)进行推理。而人脑,是一个神经网络处理所有类型的信息。
也就是说,我们具备通用智能,目前 AI 还不具备。
除此之外,人脑相比 AI ,还有一个巨大的优势,那就是我们的“参数”可以随时调整。用计算机术语来说,就是我们的“大模型”是可以实时微调的,而且绝对不会出现“灾难性遗忘”的问题。
所谓“灾难性遗忘”,就是大模型针对特定任务微调之后,其它方面的能力下降了,有时候甚至除了这个特定任务,啥都不会了。
人类迄今为止尚未出现学了新技能后,其它方面都变成白痴的例子。话又说回来,如果人类有这个风险,谁还敢轻易学东西啊?
在 AI 无法实现参数实时调整之前,取代人类助手的 AI 助手不可能实现。甚至可以这样说,哪个公司率先做出了具备从参数里调取长期记忆的 AI 助手,哪个公司就可以宣布率先实现了通用人工智能。
顺便说一下,这周的《靠谱英语》直播,我们正在一起读扎克伯格关于 AI 未来的文章,欢迎周六一起来读。
1. 靠谱的学习方法分享;
2. 靠谱的英语词汇精讲;
3. 靠谱的长、难句解析。
结语
我是一直在读书的书先生,感谢您的阅读。
今天的推文,我分享了我认为 AI 暂时无法超越人类的几个理由,总结如下:
1. 人脑的参数规模仍然远大于大模型。
2. 人脑有超高的能效比。
3. 人脑可以用同一个神经网络处理所有类型的信息。
4. 人脑可以实时更新“参数”。
你还知道哪些人脑相对于 AI 的优势吗?欢迎在留言区分享。
(原创内容,未经允许,不得转载!)
今晚9点,我们一起来读一篇主题略显沉重的论文:阅读理解能力较弱的儿童在长期前景如何?
关于作者