谷歌研究员François Chollet:AI并非真正的智能,而是一种高级插值

旅行   2024-11-08 10:00   中国台湾  

AI真的聪明吗?还是只会照猫画虎?

谷歌AI研究员François Chollet最近在接受MLStreetTalk采访时,抛出了一系列令人深思的观点。他认为,当前的AI系统远未达到真正的智能,而只是在做一种高级的插值运算。

AI:会背题的学霸,不会解题的呆瓜?

Chollet指出,LLM(大型语言模型)本质上是一个能够进行插值的程序空间中的一个点

它们依赖于向量函数,根据记忆的模式来预测输出。这意味着LLM并不是在真正地思考,而是在利用已有的知识进行"填空"。

更糟糕的是,当面对训练数据中没有出现过的新问题时,LLM往往会失败。这就像一个只会背题的学生,遇到新题型就束手无策。

智能测试的陷阱

Chollet对当前的AI基准测试也提出了质疑。

他认为,性能的提升并不等同于智能的提升。因为这些基准测试可以通过预先准备和记忆来"破解",而不是真正测量智能。

那么,如何真正衡量AI的智能呢?Chollet提出了一个有趣的定义:

「智能是技能获取效率。如果你想真正衡量智能,你必须看系统在有限的数据量下获取新技能的效率。」

他进一步解释道:「智能不是技能本身,而是一种元技能。它是你获取新技能的技能。

万花筒假说:智能的多面性

Chollet提出了一个名为"万花筒假说"的有趣理论:

「万花筒假说认为智能并非单一、统一的东西,而是一系列独特的认知过程,每个过程都形成了我们观察和理解世界的不同"镜头"。」

这个假说暗示,我们不应该把智能简单地看作一个单一的指标,而应该从多个角度来理解和评估智能。

AI的未来:从插值到真正的综合

那么,AI的未来在哪里?

Chollet认为,下一步是开发能够有意义地重组抽象概念的AI,从暴力计算转向真正的综合。

他还强调了实体化在智能中的重要性:

「智能不是在真空中运作的——它需要一些东西来操作。具体的身体或环境类型可能不那么重要,但有物理存在、感官输入和目标是至关重要的。」

AI与存在风险

最后,Chollet对AI可能带来的存在风险持谨慎态度。

他指出:

智能是一种工具——它不会自动带来代理性或自我导向的目标。如果AGI(通用人工智能)成为现实,它不会有代理性或设定自己的目标,除非我们设计它这样做。风险不在于智能本身,而在于将其与自主目标相结合。

这番话提醒我们:在追求AI发展的同时,我们也要谨慎考虑其潜在影响。

你觉得当前的AI系统真的具备智能吗?


👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章