AI真的聪明吗?还是只会照猫画虎?
谷歌AI研究员François Chollet最近在接受MLStreetTalk采访时,抛出了一系列令人深思的观点。他认为,当前的AI系统远未达到真正的智能,而只是在做一种高级的插值运算。
AI:会背题的学霸,不会解题的呆瓜?
Chollet指出,LLM(大型语言模型)本质上是一个能够进行插值的程序空间中的一个点。
它们依赖于向量函数,根据记忆的模式来预测输出。这意味着LLM并不是在真正地思考,而是在利用已有的知识进行"填空"。
更糟糕的是,当面对训练数据中没有出现过的新问题时,LLM往往会失败。这就像一个只会背题的学生,遇到新题型就束手无策。
智能测试的陷阱
Chollet对当前的AI基准测试也提出了质疑。
他认为,性能的提升并不等同于智能的提升。因为这些基准测试可以通过预先准备和记忆来"破解",而不是真正测量智能。
那么,如何真正衡量AI的智能呢?Chollet提出了一个有趣的定义:
「智能是技能获取效率。如果你想真正衡量智能,你必须看系统在有限的数据量下获取新技能的效率。」
他进一步解释道:「智能不是技能本身,而是一种元技能。它是你获取新技能的技能。」
万花筒假说:智能的多面性
Chollet提出了一个名为"万花筒假说"的有趣理论:
「万花筒假说认为智能并非单一、统一的东西,而是一系列独特的认知过程,每个过程都形成了我们观察和理解世界的不同"镜头"。」
这个假说暗示,我们不应该把智能简单地看作一个单一的指标,而应该从多个角度来理解和评估智能。
AI的未来:从插值到真正的综合
那么,AI的未来在哪里?
Chollet认为,下一步是开发能够有意义地重组抽象概念的AI,从暴力计算转向真正的综合。
他还强调了实体化在智能中的重要性:
「智能不是在真空中运作的——它需要一些东西来操作。具体的身体或环境类型可能不那么重要,但有物理存在、感官输入和目标是至关重要的。」
AI与存在风险
最后,Chollet对AI可能带来的存在风险持谨慎态度。
他指出:
「智能是一种工具——它不会自动带来代理性或自我导向的目标。如果AGI(通用人工智能)成为现实,它不会有代理性或设定自己的目标,除非我们设计它这样做。风险不在于智能本身,而在于将其与自主目标相结合。」
这番话提醒我们:在追求AI发展的同时,我们也要谨慎考虑其潜在影响。
你觉得当前的AI系统真的具备智能吗?
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!