昨天,微软忽然发布了一个新的模型,能够用于网页自动化操作。他们也正式开卷跟智谱AutoGLM一样自主人工智能了。
而前天,我也在The Information网站上看到一个消息:标题Google Preps AI That Takes Over Computers,翻译过来就是:上周三Claude、周五智谱AI、周末Google,然后微软。短短一周内,已经有四个公司爆出来要发布类似的产品了,其中三个已经悄悄发布产品:Anthropic的Claude,智谱的AutoGLM和微软的OmniParser。这些产品的能力有目共睹。Goolge虽然也只是个爆料,但是大概率今年就能出来,非常心急,想把坑先占上。而且,我知道的消息是,OpenAI内部肯定也在做,就看什么时候掏出来了。二级市场对于这种自主人工智能,反馈也非常的正。上周五智谱的AutoGLM出来之后,在金融圈直接爆了,连智谱AI概念股都出来了。不过也能理解,类似于这种你发个指令他就会全自动化去处理的AI,才符合我们对人工智能的真正的期待,才有一点,那种AI变成现实的感觉。现在的AI,坦率的讲,虽然有一些智能,但是远远离不开人工,完全没有达到解放双手的目的,绝大多数时候都是“人工”+“智能”。而且对于各家AI公司来说,底层模型的能力已经卷到一定的瓶颈了,看现在大模型的一些榜单,大家也一点不关心了。理解用户的需求-》系统规划-》调用工具执行任务-》目标完成一年多前,就有人在做了,最经典的那个项目,github上狂揽十六万星的噬星狂魔AutoGPT。但是AutoGPT到后面开始沉寂,其实有个很大的问题,就是完全基于大语言模型做的。比如,纯粹的语言模型只能处理文本,而现在很多任务比如点外卖,打车都需要读取屏幕信息。大语言模型本身不能直接处理,往往需要多加一步将图片转换为文本输入。而图片转换为文字后,对于大语言模型又会丢失很多信息。好比你被蒙着双眼,只是语言告诉你屋里有些什么,无论语言描述多么细节,你想象力多么丰富,脑海里都无法还原得与真实一模一样。模型的可控性比较差,模型就容易懵逼,导致任务中断,或干脆给你随机发挥,听天由命。所以AutoGPT能做到的事情还是比较少,效果也没有那么好,慢慢就淡出大家的视野了。但是我也挺好奇一个问题,就是这将近一年半的时间,自主人工智能为啥都什么消息,直到最近,才开始密集发声?是各家都在卷其他赛道,无暇顾及,还是都在做,只不过遇到了瓶颈,最近才有所突破?就是大家都在稳步推进,只是最近刚好到了一个可以拿出来用的时间点,而且大家的进展其实也没有差异太多。而这一年半,自主人工智能没咋出现在公众视野,看起来进展很缓慢的样子,其实有两个最主要的原因。多模态模型不够成熟。
就是你不能让模型蒙着眼睛去规划任务,他都不知道屏幕上面的元素长啥样,纯粹靠文字来描述,这个效果肯定很差。所以推进这块,必须要有很强的多模态模型的基座能力作为基础。而多模态的模型,训起来其实就比纯粹的大语言模型复杂多了。数据量、资源的消耗都是指数级增长。本身就是慢,连Claude都是今年3月才上线多模态能力的。所以在模型基座上,就是会很拖沓,这个是客观的事实,不过最近几个月,大家的多模态模型已经基本都能用了,所以基座模型层面,其实就是刚好到了一个节点。虽然互联网包含大量的人类知识,但主要由静态信息(图片、文字)组成,这些静态信息无法反应一些动态的过程。比如,模型可以学习理解外卖界面上的脆皮炸鸡是多少钱。因为网上有大量的静态数据教会它钱是什么、能干什么。模型可以理解“钱是能买到炸鸡的”。但缺乏动态数据教它怎么“找到美团App,点开App,如何搜索脆皮炸鸡,然后点击下单”的这样一个动态过程。这个其实就跟o1的那套推理的路很像,模型不仅要知道结果,还要知道其中的过程。整个自主人工智能的操作路径,其实就是一个多模态的巨型思维链。o1和claude给大家打了个样,证明了强化学习这条路是对的,那强化基座模型的推理能力是一个应用方向,而做这种真正的Agent,又是一个强化学习应用的典型场景。
而这套通过强化学习补充数据的范式,其实也就是今年3、4月以后,才逐渐形成的业内共识。所以,着就能解释,为什么过去一年半的时候,这种自主人工智能一直没啥进展,直到最近才密集发声,其实就是多模态基座和数据的原因。最后,再简单说说AutoGLM这种能力,大概是怎么实现的,具体细节他们也都没透露,我只能根据我的调研结果,进行一些猜测,不过AutoGLM团队最近应该会发个技术报告,到时候可以关注一下。比如一个最简的例子,说:微信发送“今天疯狂星期四V我50”的消息给鲜虾包。那么大模型拿到任务后,会一边看当前屏幕的界面,一边利用思维链一步一步推理:任务可以在当前的UI界面下继续进行吗?是的话进行第2步,否的话就会思考“应该打开什么界面”然后进行下一步动作。
分析当前UI和最终任务的关系,分解成一步一步的动作”
现在首先需要填充输入框“今天疯狂星期四V我50”
然后点击“发送”
然后思考问题是否最终被解决?如果是的话结束,如果否的话回到第1步继续循环。
这一切,都建立在模型能看到屏幕,能理解屏幕上那些乱七八糟的元素的基础上。他不仅需要复杂的规划能力,还需要直到这个是按钮,这个是单选控件,这个是表单,这个是开关等等。而滑动这个操作,反而是最麻烦的,人看起来很简单,是因为人对于UI界面,已经有数十年的经验了,滑动本身就是预测的过程,我们根据我的经验,大概能猜到这一屏如果没有我要的信息,那他可能是在下一屏。所以我们会进行一个滑动操作,但是对于AI来说,这个预测,反而是最难的。所以后面,需要继续灌数据,灌大量的行为性数据,形成泛化能力。让AI,有跟人类一样的,UI常识,和对交互的可预测性。Claude的Computer Use和智谱的AutoGLM,都有自己的一堆问题,也远远没到一个算是完美产品的地步。以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
>/ 作者:卡兹克、Qodicat
>/ 投稿或爆料,请联系邮箱:wzglyay@gmail.com