硅谷101对话李彦宏:AI价格战开打、大模型闭源、超级应用以及中国市场机会

文摘   科技   2024-07-16 08:30   湖北  

在世界人工智能大会WAIC期间,我们硅谷101从硅谷飞到了上海,采访了百度创始人、董事长兼CEO,李彦宏(Robin Li)先生,就目前市场非常关心的AI议题进行了深度讨论。

很有趣的是,这一轮生成式AI,中国市场的打法和海外截然不同,在硅谷大家开始卷多模态模型和交互,创业企业还侧重infra基础设施,同时市场在等GPT-5来验证Scaling Law的时候,中国市场的“百模大战”已经发展到打响价格战的阶段了,速度比很多人想象中都要早很多。

接下来中国市场要开始卷AI应用了,所以在采访中,李彦宏对中国市场大模型的价格战、AI的To B企业级机会、开源/闭源路线选择、AI超级应用、AI Agent智能体的看法、以及AGI和Scaling Law的思考,都和我们做出了分享。

这是李彦宏2024年首次接受媒体采访,非常难得,以下是我们的对话实录,希望能为大家带来一些新的思考和角度。


01

不可避免的价格战:烧钱不是事情的本质

‍‍‍










杨宇东:

我们看到这个很多闭源大模型的API调用的费用越来越低了,而且很多又有开源大模型可以选,所以在这么一个市场的这么一个商业环境之下,那我们很关注,就百度肯定是身在其中,那大模型靠推理这样收费的这种商业模式,它未来成立不成立?以后我们市场再去比拼大模型的话,会比拼哪些点?就是你刚才提到的可能是速度、成本等等的,你怎么看?

李彦宏:

说实话,我们内部不断在思考、讨论这个问题,我觉得价格战几乎是不可避免的,在中国互联网干了这么长时间,其实已经对价格战非常熟悉了,确实他来的比我想象还要更早一点,这么早就开始把这个价格打到了几乎不可思议这种低的地步。

但我觉得某种意义上讲,也不是坏事儿,当你价格足够低、甚至免费的时候,就会让更多人有积极性,来尝试在大模型基础上,去开发各种各样的应用,也就是说大模型对于各行各业的这个渗透速度会更快。

那你都免费了,或者说价格足够低的话,你大模型公司靠什么赚钱呢?我是这样想的,大模型技术的天花板还是很高的,今天我们还是对于大模型的能力,有很多不满意的地方,那我们仍然需要很多非常优秀的技术人员、需要很多的算力、需要很多很多的数据,才能够训练出来下一代的大模型,我们还可能需要下下代,甚至下下下代这种大模型。

所以最终我觉得,大家是要去拼谁的技术更好,你的技术好,你为客户产生了更好的价值,将来你还是能够收到费的。

今天之所以把价格打到足够低,是因为现在模型的能力,其实技术还没有到最好,大家能力都差不多的时候,那行就拼价格呗,谁的价格低就用谁的。

时间长了之后,市场本身会回归理性,那同样的效果,就是当我的成本比你低的时候,你打价格战你肯定打不过我,时间久了之后你就退出了。

这个过程我们在百度网盘上是经历过的,那些年大家在卷网盘的时候,我今天给你10G的免费空间,明天100G,后天给1T,再后天说无限空间永久免费,当你说无限空间永久免费的时候,大家也会说这怎么能够持续呢?这一定是不可持续的。

但是某一段时期,可能有个一两年左右,大家这样不理性的去打价格战,慢慢就一个一个退出,那为什么百度没有退出呢?因为我敢打呀,我的技术、存储成本低,所以最终还是说谁的技术好,谁的效率高,谁会胜出。

陈茜:

刚才说这个价格来的时间比你想象中的早很多,也比我想象中的早很多,这个才一年半的时间,已经开始打价格战了,但你觉得价格战会持续多久呢?可能大家有一些人就觉得说技术不行,没油水我要退出了,可能就最后的市场赢家会浮现出来。

李彦宏:

这个很难讲,现在有些创业公司是玩家,但是也有很大型的这种互网平台公司是玩家,那么烧钱的话,其实理论上讲是可以烧很长时间的,但我觉得,烧钱不是这个事情的本质,本质仍然是谁的技术更好、谁的效率更高,当你的技术好、效率高的时候,你就不怕去打价格战,所以多长时间都OK,最终它会是优胜劣汰的这样一个过程。

陈茜:

你觉得在中国市场会是一个赢家通吃的局面吗?还是说等价格战之后会剩下几个主要的?可能还有一些更小模型这样的生态?

李彦宏:

我是这样想的,这次生成式AI,它是对于整个IT技术栈的一个大的变革,我们一般认为,过去的IT技术栈,就是芯片层、操作系统层、应用层或软件层,就这三层。到生成式AI之后,我们认为IT的技术栈变成了四层,芯片层、框架层(深度学习框架)、模型层、然后是应用层,我认为在每一层可能都会诞生至少2~3个大玩家。

那到应用层的话,可能数以百万计,甚至千万的各种各样的应用都会出来,也会逐步的出现超级应用。当然根据“超级”的定义来看,它是不会很多,可能是三五个之类的。

模型层我觉得也许两三个就足够了,因为最后还是大家比拼的是效率嘛,你的效率如果不够高的话,慢慢就觉得,还不如用别人的,去在这之上,再去开发更多的应用,是更划算的。

所以在每一层其实都有机会,但是不同的层发展规律,需要的专业知识什么的都不太一样。

陈茜:

非常同意您的说法,之前我问Dario Amodei from Anthropic他也说过,他当时在做语言还有翻译方面的工作在百度,他说在国际市场,可能最后也就剩四个左右的大模型,因为其他可能都跑不出来,就是跟您的想法非常一致。

02

商业落地:AI企业需求比互联网时期大得多

杨宇东:

你说过,大模型对于B端的影响会超过互联网,你为什么认为,大模型对B端的改造,比互联网对B端的影响更大?

李彦宏:

其实你想一想,互联网对C端的改造,我们都是感同身受的,是非常彻底的,是颠覆性的。

但是互联网对B端的改造,其实我觉得一般般吧,虽然不能说没有,但是“互联网+”其实最后,可能只是一个信息化、或者数据化的过程,用的技术比较简单,产生的增益也没有那么明显。

但是大模型确实不一样,各种AI应用,比如说小说创作,读小说叫做C端,小说创作就可以当做是B端,法律援助其实在帮助律师在提升效率。

我们接触到的一些能源电力行业,生产制造业等等,都有类似的需求,比如说像现在国内电动车卷的也很厉害,车里头对话系统,很多也在用文心大模型,使用量也不小,但是对于百度来说,这就是一个To B的应用,我们不直接提供给用户,它是经过了OEM,经过了车厂,他们的集成之后,把这个应用提供给了终端消费者。

这种事情其实非常多,而且我们就看调用量,如果调用量上的很快,这就说明我们的客户需要这些东西,B端靠着这个大模型,靠着AI原生应用产生了价值。

杨宇东:

最近我跑制造业比较多,你前面说的有些像车企它直接调用了,直接把文心一言或者大模型调用了,在制造业里面,很多企业家说,我们觉得未来AI对于我们高端制造业,智能制造显然是重要的价值,是一种革命性的突破,但是一直就搞不明白,比如说通用大模型,和我自己的行业垂直领域,垂直大模型,它将来到底是什么样的关系,你说的OEM,他们也希望,到底是什么样的供应商,和你们这样平台型的大厂商之间,形成什么样的业务链条,这个问题是制造业,尤其是先进制造业特别关注的。

李彦宏:

这个问题确实很重要,实际上大模型在各个垂直的场景里怎么用,我们也经过了探索过程,最初我们的想法是,我把基础模型做得越来越强大,大家叫通用人工智能(AGI),在什么场景我都能做得很好。

后来发现这件事情没有那么容易,每个场景都有它自己的道,而且要求也不太一样,有些地方,大模型思考两分钟再给结果也OK,只要给出来的结果是准确的、是全面的就可以了。但是有些场景,如果你一秒钟不出结果,用户就放弃了,所以这两个场景对大模型要求是不一样的。

今天即使是最强大的模型,还不能做到反应又快又准,所以当应用场景需要反应快的时候,我们需要更小的模型,它由于没有大模型通用的能力,所以在垂直场景当中,还要对它做精调,就是做SFT(监督微调),把你行业的数据灌进去,再经过各种各样的调教,在这个场景里的效果,能够跟大模型相比差不多。

类似这种场景,我们也见了很多,去年10月份,我们发了文心4.0之后,主要精力在做什么呢?根据最强大的模型,去裁剪各种体量的小模型,比如说十亿量级的模型,百亿量级的模型,千亿量级的模型。

这个模型也许擅长角色扮演,那个模型也许擅长逻辑推理等等,根据客户的不同使用场景不同的要求,出来各种各样的模型。

这些模型的大多数速度都比文心EB4要快,推理成本比它要低,所以这种应用是大家更爱用的。

即使到今天,我刚才讲的5亿的调用量,调用量最大的,一定不是最强大的模型,大家都觉得,反应太慢了,成本太高了。

但是随着时间推移,成本会下降,反应速度也会提升,比如说前几天刚刚发布EB4的Turbo,Turbo就是在EB4的基础上,效果有提升,但更重要的是,响应速度比以前快了很多,成本下降了很多,因为什么呢?

我们发现真正的市场需求,是要求你响应速度一定要足够的快,成本一定要足够的低,这样我才能用起来,至于说下一代的大模型,到底有多强大,在哪些场景能够用到,那是我们会继续去探索的过程,但是今天你要看市场需求的话,规模更小一点的模型,市场需求量是更大的。

杨宇东:

帮我们介绍一下,大模型在B端的应用比较成功的商业案例,或者是商业模式、产品形态。

李彦宏:

除了我刚才举了小说创作,还有比如电商的数字人直播,通过大模型来生成直播的话术,很多数据人不容易记得特别清楚,比如说我要卖一个营养品,这个营养品在哪一年,哪一个大学,哪一个教授做了多少实验,实验出来之后结果是什么样子,让自然人去记这些东西,他记不住的,但是这些数据恰恰能够很好的说明,这个产品到底有什么作用,这些东西靠数字人把它表达出来,靠大模型把它生成出来,很多时候比真人的直播效果反而要更好,几乎任何一个行业,我们都可以取出来类似的东西。

陈茜:

现在企业们,他们对AI调用成本怎么去看?我们帮企业去算一下账,我花100块钱,买各种各样的AI服务,我可能要乘以五,我要赚500块钱,我的商业才能跑得通。现在企业们是否会愿意去为AI去付费,你在跟一些企业客户交流的时候,他们的态度是什么样子的?

李彦宏:

这个问题特别好,当你处在市场经济环境当中的时候,这些企业其实是非常理性的,尤其是中小企业,它账是算得非常精的,如果这件事情能够让我降本增效,能够让我赚到更多的钱,那我就会用它,如果不能,你再吹破天,我也不会用。

其实市场会告诉你,大模型到底有没有用,我们看到调用量的迅速提升,确实是因为在用户侧,在客户侧,它为这个企业确实产生了降本增效的作用。

我再举个例子,比如招聘场景,雇主要找一个具备什么技能的人,对于技能的描述,它可以是千差万别的,在这种情况下,用大模型去理解这是一个什么人,理解老板要招什么样的人,去进行匹配的话,大模型的效率就会高很多。

过去是HR坐在那,一份一份简历筛查,然后一个一个人去面试,面试100个人,最后筛出来10个人来,这个效率是非常非常低的,但是大模型进来之后,它可以非常明显的去提升这方面的效率,有了这样的场景之后,你去算一算模型的推理成本,其实几乎是可以忽略不计的。

尤其在国内,现在大模型价格战是非常厉害的,所以像一些比较轻量级的模型,百度的轻量级模型都是免费的,这个免费不仅仅指的是模型免费,实际上算力也送你了,你本来要有电脑,我得要有带宽等等,这些都没有了,你只要来用就好。

陈茜:

后面的推理也很便宜是吗?

李彦宏:

推理是免费的。

陈茜:

有一个比较好奇的问题,在SaaS时期,在互联网时期,SaaS在中国To B没有做出来,为什么您会觉得在AI时期,AI as a service可以在中国做起来呢?To B方面的话。

李彦宏:

我觉得在SaaS时期,之所以没有做起来,更多的是因为,比如像互联网大的平台,它既做了To C的事,也做了To B的事。

像在美国的话,每一个商家都有一个自己的电商网站,用户也可以到它网站上去购物,在中国的话,大家都到电商平台去购物,商家所需要的To B能力,电商平台都替他做了,所以他不需要这种东西了,但是在美国的话,你自己比如说你要建立一个自己的网站,上面要能够卖东西,要有各种各样的这种功能,要对自己的用户进行了解,那是需要做很多投入的。

所以在某种意义上讲,其实中国并不是没有这样的需求,而是说这些需求,被更大的平台所满足掉了。

但是在AI时代,我觉得情况又发生了变化。刚才也讲了,它不是从0到1的、大家过去从来没有见过的这个业态,它先诞生的恰恰是对于现有业态的一个增强,所以当现有业态被增强效率越来越高的时候,他可能就更能够抵御,类似于互联网平台这样的公司,对他的这种业务的侵蚀,所以这方面我是我倒是觉得,AI的这种ToB的需求,在中国会比互联网To B的需求要要大很多。

03

开源vs闭源:大模型商业化路径的选择

陈茜:

在国际上对开源闭源大家也争论的很厉害,比如说马斯克他喷OpenAI, 说你这么闭源,你要不然就叫CloseAI好了,我们看到马斯克的xAI也开源了,Meta的Llama也是开源的,为什么你对闭源这么坚持呢?

李彦宏:

我觉得开源其实是一种智商税,你仔细想一想,我们为什么要做大模型?它能够有应用,这些应用在各种场景下,能够为客户为用户提升效率,降低成本,产生过去产生不了的作用。

所以当你理性的去想,大模型能够以什么样的成本,给我带来什么价值的时候,你就会发现你永远应该选择闭源模型。

今天闭源的无论是ChatGPT也好,文心一言也好,以及各种各样的模型,你看一下它的平均水平,一定是比开源模型要更强大的,它的推理成本它一定是比这个开源模型更低的。

尤其在国内的话,我们连算力都送你了,所以当你想要一个开源模型的时候,你得把这个模型拿过来,根据你的场景去做这个SFT(监督微调),很有可能还要做这种安全上的对齐,就是哪些风险要去进行规避,你还要根据自己的场景,去准备各种各样的数据,去一轮一轮的去迭代,最后刚才说的买算力,你要把它放上去,由于是你自己独有的一个模型,你还没有办法,跟别的应用去共享这个算力,最高峰的时候用多少,那就要准备多少算力,这个是非常非常不经济的。

反过来你用闭源的模型,算力可以和大家共享,这些个能力在同等的参数下,闭源模型一定比开源模型的量更强,那同等能力下,由于闭源模型可能参数规模会更小一点,它的推理成本就会更低。所以长久来看,我觉得闭源模型,它使用一定是非常大的比例,会超过开源模型。

当然,我也不能说开源模型没有存在的价值,从学术研究的角度,你是一个科学家,你想研究大模型的原理是啥,因为业界其实也一直在抱怨就是说,大模型的不可解释对吧,你怎么解释大模型为什么会具有这种能力,或者说你是一个高校学生,你想学这些东西,你想拿来练练手,那开源大模型我觉得有它的价值。

但如果你是一个企业,要的就是大模型能够带来价值上的增益,你只要一算账,就会发现开源模型是没有机会的。

陈茜:

我看百度是用的公有云的方式对吧,就是闭源大模型,但再加一个公有云,上面有集合了不同的闭源和开源的模型,供客户去调用,那我看比如说亚马逊云科技,还有微软他们其实也是采取这样的一个方式。所以百度本身大模型闭源加公有云,你对这样的一套的打法,对企业的客户来说有什么考量吗?

李彦宏:

我觉得ToB的客户要选择一个模型,对他来说性价比最好的,一方面模型要对他的这个应用能够产生价值,另外一方面就是成本要足够的低。

很多时候就是你看着有用,一算成本不划算,那么客户就放弃了,这是为什么我刚才讲,开源模型打不过闭源模型,你只要理性的去看待,你的收益是啥、成本是啥,你就会发现,最好还是去选择闭源模型。

当然,闭源模型不是一个模型,它是一系列的模型,根据你的使用场景,你去平衡一下,到底要多好的效果,要多快的推理速度,要多低的成本,所以我的模型非常多的变种,可以根据用户的需求,让他来选择。

而这些相对来说规模更小的模型,都是从最大最强的模型裁剪出来的,这也是我觉得开源模型不具备的一个优势,当最先进的模型是闭源的时候,我根据闭源往下去裁剪,裁剪出来一些规模更小的模型,仍然比那些同样规模的开源模型效果更好。

我们也看到一些参数规模比较大的这种开源模型,其实这个就更没有道理了,当规模越大的时候,你会发现他的推理速度变得更慢了,如果不在乎推理速度的话,你就用最强大的闭源模型,那它效果一定是更好的。

而且参数规模越大意味着什么?意味着对算力的消耗也越大,也就是说你得准备更多服务器,来伺候这个大模型,其实这东西是根本不划算的,越往上走,越应该去共享这个算力,这样才能算过来账。

所以我觉得大家只要是不是在那儿坐而论道,而是真的说,我对模型有需求的时候,你就会发现几乎是无需思考,不可能去选择开源模型。

04

AI超级应用:AI时代不再卷日活10亿?

杨宇东:

由ChatGPT掀起的热潮已经一年多了,你也曾经表达过,接下来超级应用什么时候出现。我们看到国内面向C端的大模型产品形态,看起来差不多都是搜索框问答这种模式,你怎么看?有没有可能产生一种差异化的竞争?什么样好的产品会出现?

李彦宏:

准确的讲,我倒不是一定在等待一个超级应用的出现,我更觉得在基础模型之上,在大模型之上,应该能够诞生数以百万计的、各种各样的应用。

这些应用有些是很小的领域,大家可能不太容易想到的应用,但是它对于那个领域的问题,解决得就比以前好很多。也有可能是用户量庞大,用户使用时长非常长的,类似于移动互联网的超级应用。

确切的讲,我觉得现在还没有看到,能够比肩移动互联网时期超级应用的AI原生应用,但是已经看到,越来越多、各种各样场景,尤其是ToB(对企业)场景,利用大模型提升效果,提升效率,产生更多的收入,或者说能够节省更多的成本的情况出现。

尤其是今年以来,我们看到在各个领域,各行各业都有AI的应用场景出现了,它的出现使得我们大规模节省了人力成本,或者是效率大规模的提升,也许对于投资者、创业者,他们没有觉得这个东西很令人兴奋。

因为大家都在想,我能不能有一天,从0到1做出一个人们想也没想到过的东西,变成一个DAU(日活用户)10亿的超级应用,这个当然很重要,假以时日也一定会出现,但是目前已经看到的,甚至是更重要的是,大模型在各个领域、各个场景的应用。

这方面从百度文心一言的日调用量来看,已经是非常明显了。我们在4月份的时候,曾经公布过一个数据,文心一言的调用量,每天有两亿次,到最近一次,前几天我们在公布的时候,文心一言调用量已经到了5亿次,也就是说两个月的时间,调用量翻倍。

调用增长背后意味着什么?意味着它在给应用产生价值,因为没有价值的话,人家也不会花钱去做这种调用。所以这种增长速度,还是非常令人兴奋的。大模型对于实体产业,对于各行各业的提效降本这些作用现在已经非常明显了。

杨宇东:

你更多是谈到了在垂直的行业,我们想百度还是有很强C端基因的公司,作为一个普通的消费者和使用者,我们也想请您聊一聊,C端用户会有什么样很好的场景?包括我们说端侧,甚至最后手机上的APP,可以被手机硬件去调用,而不是经过一个APP,这个你怎么看?

李彦宏:

我觉得分两类,一类是大家比较关注的,过去从来没有的应用,现在比较流行的,类似于ChatGPT这样的,我们把它叫做ChatBot(聊天机器人)。

国内每一个大模型公司,都会推出一个相应的APP,或者是网站来做ChatBot,它的作用也比较明显,如果你有一个很具体的问题,丢给它的话,它就会给你一个还不错的答案,而且准确率也越来越高了,很多人逐步的对这种ChatBot产生了依赖。

对于现有的这些ToC(对消费者)的应用,其实它信息增益作用也是非常大的。我们在4月份的时候,公布过一个数据,就是百度搜索,今天有11%的搜索结果会由AI来生成的,这个比例还在不断的提升。

也就是说,现有大家比较常见的应用,其实也越来越多的,在被大模型、生成式AI所改造。

另外一个例子,比如说百度文库,过去是一个大家在上面找现成的文档,比如中学老师要备课了,初中的物理课,他要找一找人大附中的老师,最优秀的老师,他的教案是什么样子,去找现成的文档。

今天百度文库经过大模型改造之后,已经更多的变成了,生成式AI这种应用,也就是说,不管你想要产生什么样的文档,是PowerPoint,是论文的格式,还是什么各种各样的,甚至是漫画这样的,它都可以根据你的要求来生成。

而且不仅它的用户量比较广,这个产品它是收费的,今年以来已经有大约2600万付费用户,你如果说用超级应用的标准来看的话,它也没有到超级应用的水准,但是你要是看它实际产生价值的话,有那么多人愿意为这个产品付费,那还是很厉害的。

这些产品都是过去已经存在的,只是说你经过了大模型的改造之后,它的能力跟以前完全不一样了,人们对它的认知也在不断的迭代,不断的在加深。

杨宇东:

因为它能力的提升,大家更愿意付费了,而原来只是免费搜索。

李彦宏:

是的。

陈茜:

我特别同意您最近在多个场合强调的,去卷AI的原生应用,这样的话,大模型才有意义。同时我也有一点小困惑,比如说OpenAI它的GPT-4,在8个月之前就推出来了,当时大家都会觉得,AI应用时刻要爆发了,但是8个月之后的今天,我们看到还没有爆发,可能很多应用出来也不太尽人意。

最近最火的Perplexity,这个AI搜索现在是2000万美元的ARR(年度经常性收入),2000万用户的量级,其实也还没有到所谓的Super app(超级应用),或者是killer app(杀手级应用),所以我的问题或者疑惑在于说,如果基于GPT-4的模型能力,是不是我们现在还没有到去卷应用的时候,这个时刻还没到?

李彦宏:

刚才你提到了GPT,以及perplexity,还是我刚才说的第一类,过去从来没有过的东西,它是从0到1去做的。

超级应用确实现在还没有出现,即使是ChatGPT的话,它的DAU也没有过亿,还算不上一个真正的超级应用,但是对于现有产品的改造,无论是中国也好,美国也好,我们都看到了实实在在的增益。

比如美国的话,微软的Copilot,它已经收到了很多付费,美国更多的是ToB(对企业)的行业,Palantir、Snowflake这些,都是通过软件被大模型、被生成式AI加持了之后,他们的业绩得到实实在在的增长。

所以从这个意义上讲,大模型应用其实已经逐步在浮现出来,它对于现有业态的改造作用,比从0到1颠覆,作用更早到来、更明显,甚至我觉得也能够创造更多价值。

以前Satya(微软CEO)说过,他说过去互联网叫做AutoPilot,意思就是,你自己就都把这个结果给弄出来了,现在的生成式AI叫Copilot,它实际上是人和机器共创的过程。

这个过程一开始大家觉得没有那么性感,但是它对于人的工作效率的提升,对于成本的下降,对于打开新的可能性,产生的促进作用,其实是比那些从0到1的应用,反而要更大。

如果仅仅是从0到1,你可能会希望出现某几个Super app,那它也就是公司从中受益,但是今天几乎各行各业所有的公司,被大模型加持之后,它都能受益,这种影响力,对于整个社会,对于人类来说,无疑是更大的。

只是大家好像觉得,这个东西我以前见过嘛?所以没有那种新鲜感,或者他更多诞生在生产力场景,他的受众群体,或者单一应用受众群体,不会过亿、过十亿那样,尤其在C端,在公众层面体感没有那么集中,这是大家现在一直想找一个Super app的原因。

杨宇东:

你的问题是挑战Robin,Robin说要卷起来,你说怎么没看到卷,我总结下来,我的感觉,听完Robin讲完之后,我就知道了,我们理解的超级这两个字,在Robin概念里面,一个是数以百万计的应用已经开始起来了,第二个,所谓的超级反而是在垂直的,在一些局部的领域,它有非常显著的加速度或者是增益。

陈茜:

或者是“超级”这个定义在互联网时代跟在AI时代是不一样的。

李彦宏:

是不一样的。在互联网时代可能是某一个单一的从0到1,或者是到100这样的应用,今天所谓的超级应用,它是对现有场景的一种加持,这种加持还在早期,我必须得承认,它逐步会改变现有产品的形态。

我再举一个例子,小说创作、网文,这个在国内是特别火的行业,过去就是人肉,靠自己的能力、想象,不断的去更新一篇文章,或者是一个小说,这个效率是很低的。现在有了大模型的加持,基本上有一个构思,它就会给你相应的文档,你给的再丰富一点,它就生成的再丰富一点,你说文风太温柔了,要不要强悍一点,根据你的想法,它可以不断的去调整。

这样的东西,在用户看来,我仍然在读一篇网文,在读一篇小说,但是这个小说的生产成本生产效率,它的内容丰富度,可读性,优良率等等,都是跟以前不一样的。所以这样的例子,其实我们在几乎任何行业都能够看到。

05

AI Agent智能体:门槛一定要够低

杨宇东:

我们前面聊的总结一下叫卷应用,接下来还有一个关键词叫智能体,你说过好多次,AI时代最看好的是智能体,但是目前来看好像也没有特别强大的爆发。你为什么认为智能体是AI时代未来的趋势呢?

李彦宏:

我觉得智能体正在爆发,只是说它现在基数还比较小的时候,大家的体感没有那么强烈,但是你要看业界大模型公司,都在做智能体,业界这些意见领袖,基本上算是共识,一般大家都会说,我看好智能体。

智能体为什么代表未来?基础模型它本身是需要靠应用才能显现出来的价值,智能体就是,一个几乎可以放之四海而皆准的、基于大模型的应用。

什么意思呢?根据我自己的场景,我设定一个角色人设,我连编程都不用,我只要把我想要做的事情跟它讲清楚,有时候要把自己的私有知识库对接进来,或者把自己做事情的套路给它说清楚,这个专业术语叫做工作流,把工作流套进去,它就是一个非常有用的、跟基础模型不一样的东西。

今天不能说所有,但是大多数AI的原生应用,你用智能体的方式都可以做出来,做出来之后效果也不错。

由于它的门槛足够低了,可能你连编程都不用编,就可以做出来一个效果不错的智能体,就意味着越来越多的人可以做出他想要的智能体。

这个有点像什么呢?有点像90年代中期的时候,互联网的网站,这个网站你可以把它做得非常复杂,当时比如说雅虎也是很厉害的网站,但是仍然在学校里读书的大学生,他也可以做一个自己的HomePage,他把他常用的几个网站链接链在那,比如说Java学习攻略这些东西,做几个链接,就是他自己的网站,其实很简单。

由于做网站很简单,所以在90年代的时候,从中期到末期,就是诞生了数以百万计的网站,这种大浪淘沙,最终会出来一些非常优秀的网站,像Google、Facebook,这当然是若干年之后才出现,但是早期看的话,你可能看到的都是,这些网站怎么都是乱糟糟的,一个大学生就能做一个网站出来,这有啥价值呀?

但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super app,这就是为什么,我觉得智能体代表未来,我特别看好的一个新兴的业态。

陈茜:

智能体AI Agent它是特别重要的概念,包括在美国硅谷也是这样的,在业界大家对AI Agent,它的定义还是有一点不同的探讨,我看到有些人说,比如说GPTs,也都是一些智能体,有些人会说,可能更加高级一点的Agent才算智能体,我的Agent要调取不同的工具,要成为一个虚拟世界的机器人,它可能才叫Agent,你对Agent的定义是什么样子的?

李彦宏:

我首先要考虑这个门槛要足够的低,就一个小白,比如说大一的学生,他也可以很方便的能够制作一个智能体出来。

当然在此之上,可以有各种各样比较有趣的玩法,刚才你讲的调用工具、反思呀、长期的记忆等等,这些能力会逐步的加进去。

这个跟90年代时候的网站诞生过程,也有类似之处,我们一开始的网站,都是很简单的,后来我可以用Java把一些动态的东西放在一个网站里,再后来我可以加上cookie,这样从一个网页转到下一个网页的时候,我还记得上一个网页你干了什么,这些东西在早期的时候,网站生态里头是没有的,但是一旦有越来越多的人在生产网站,技术就会跟进说,你有什么需求,我去解决你的问题。

Agent是一样的,不是说用了最先进的,刚才讲的这些能力之后,它才叫一个AI Agent,我反而觉得我们要把这个门槛降的足够低,让大家觉得说,我也可以搞一个AI Agent,进来之后随着时间的推移,随着你遇到新问题,解决问题的过程,会把各种各样最先进的技术用进来。

说实话,我认为现在AI Agent用到的这些能力,仍然是非常初级的,未来还会产生我们今天想也想不到的Agent能力。

但是这些能力的诞生,反而要依赖数以百万计的开发者,去开发各种各样的应用,在他们使用的过程当中,产生新的需求,这些需求被解决的过程,就是一个创新的过程,就是AI Agent进化的过程,这个我还是非常期待的。

陈茜:

百度有什么比较有意思的AI Agent的案例可以给我们分享一下吗?

李彦宏:

有很多,国内高考是一个非常大的事件,不仅是学生,还有家长都非常重视。过去大模型在干什么事呢?高考有个作文题,我们用大模型来写一个作文,看它能得多少分。

其实你想一想,这个东西在哪用呢?不可能让考生带着大模型去参加高考嘛,但是高考完了之后,你要估分,你要报志愿,你要选择学校,你要选择专业,可能有人在乎说,这个宿舍里头,一个宿舍要住几个人,那个人在乎这个学校有没有游泳池,或者说哪个专业更适合我未来发展,每个人的情况都是不一样的,每个人的问题也都是不一样的。这种情况下,哪有一个全能的辅导老师可以告诉你说,你最适合的是哪个学校哪个专业,但是AI Agent就可以干这个事情。

所以过去大家来百度或者到其他地方去搜索,都是找世界上已经存在的内容,他没有专门为这个人、这个时刻、这个地点、这样的环境生产内容。

而今天的AI,尤其是智能体,它就可以做到,你告诉我你是什么情况,你的情况可以不用一句话就说清楚,你用十句话也可以,我都记得,这样的例子非常非常多。

陈茜:

而且它会非常个人化的给你很多的规划,包括我看到你们跟新加坡旅游局也是有合作的。

李彦宏:

的。你自己消费水平是多少、有多长时间、有什么喜好、爱吃什么、不爱吃什么,每个人都是不一样的,它可以完全根据你的情况来生成你要的答案。

06

AGI与Scaling Law:值得长期奋斗的信仰

杨宇东:

我们说Scaling Law,以前大家都觉得没问题,但是最近开始不同的声音出来了,那确实我看很多行业,做一些速度更快效率更高的小模型,那Scaling Law会不会这么快又被颠覆掉了?

李彦宏:

Scaling Law本身可能还会有若干年的生命周期,但与此同时的话,就是在此之上会叠加出来各种各样的创新。

刚才讲的智能体、它的反思能力、它的进化的能力等等,其实跟Scaling Law已经有点分离了,它是两个路线在发展,但是它仍然是基于Transformer这类大模型在往上在做。

那未来再过一两年,还会出现什么新的技术创新,在此基础上再去叠加,我们也不知道,大家都在探索。

换句话说,我觉得Scaling Law短期之内倒不会被颠覆,但是在Scaling Law之上会叠加出来很多很多、现在还无法想象的创新。

杨宇东:

你个人认为AGI实现的标准是什么?还有哪些路径可以让我们更快的去通向AGI?

李彦宏:

我觉得这个问题确实业界没有一个标准答案,以前大家觉得,通过图灵测试就实现AGI了,实际上现在大模型已经通过了图灵测试,但是人们所说的AGI,其实大多数时候已经不是只通过图灵测试。

那什么叫AGI?在我的心目当中,AGI就是说是机器、或者AI,它能够具备人在任何场景下所具备的能力,就是general intelligence(普遍能力)是通用的,我不管在什么场景,我的能力都是跟人是一样的,这是一个很高的要求。

其实今天你看像我们做这个无人驾驶,做了有11年的时间了,仍然不能说这个技术成熟,它还是只一个专用场景,AI都做不到非常成熟,你不能容错的话这个就不行了。

所以,真正要实现AGI,我认为确实是还需要很多很多年。但是业界有人说AGI可能再过2年,或者5年就能实现,但是我自己的判断是10年以上,也许10年,也许20年,也许更长的时间。

我们听到很多人在讲,AGI是一种信仰,当你把它当做信仰的时候,谁的信仰会明年就实现?这是自相矛盾的。如果是一个信仰,它就是值得为之长期奋斗的目标,啥叫长期呢?但是如果连10年都没有的话,不能把它叫做信仰。

陈茜:

太容易了就不能叫信仰。

李彦宏:

对呀。

陈茜:

现在大家其实都在等GPT-5,但是GPT-5一直在延后,所以我在周围听到的担忧的声音也是越来越高,就怕说比如说5~10万亿这样的参数加上去,但是最后大家发现它的效果并没有跃升这么多,是不是会打击一些人们对Scaling Law的信仰,可能我们的AGI没有办法用Scaling Law的这个方式去带我们去实现了,你对这个有担忧吗?

李彦宏:

我不是很担心这件事情,我觉得大家应该更关注应用,而不是关注基础模型,某种意义上讲,基础模型迭代速度稍微放缓一点不是坏事,就是今天的这些应用的开发者,他有一个相对稳定的base(基础),来开发应用的话,其实是效率更高一些的,如果模型天天在那儿练,他每天都要重写一遍过去的这个代码,那是很累的。

但是在现有基础模型基础上不断的去做微调,去做一些渐进式的迭代和和创新,其实你看到它是一直在发生的,无论是OpenAI不断在推的东西,还是我们百度的turbo模型、更小量级的模型等等,都是在根据市场需求做迭代。

但是长远来讲,我确实认为下一代的大模型,一定会比现在这一代模型强大的多。什么时候推出来我不是很着急,我觉得应该多看一下真实的市场需求是啥,然后我们下一代模型迭代的时候,根据市场需求来迭代。

如果我们认为AGI 10年都达不到,下一代模型离AGI其实还有很远的距离,也就是说他有他擅长的、也有不擅长的地方,如果擅长的恰好不是市场需求的,那这个意义是不大的,如果他不擅长的恰好是市场需求的,那我们浪费了很多资源,去做一些不该做的事情。

这是为什么我更关注应用,我想知道市场上(的需求)。比如说我是一个卖车的销售,我用什么样的话术,能够说服进店的这个人来买我的车,而不是说我怎么能够考过高考数学。这就是市场需求,当不是很清楚的时候拼命往前跑,去做一个名义上更强大的模型,其实很有可能是会走弯路,是浪费资源的。

陈茜:

我非常同意,那你觉得接下来大家在卷应用之余,会不会开始卷一些中小模型,比如说国际上Mistral这样的中小模型,也是受很多开发者欢迎的。那接下来你觉得百度在对于中小模型上,还有一些模型蒸馏上有什么样的这个策划?

李彦宏:

我觉得我们看到的真实需求,确实在绝大多数情况下都不是最大的模型,它都要求这个模型变小,变小意味着什么?速度快,成本低。比如说我干这个事儿,总共能够给我带来每年100万的增益,我一算,最大的模型要120万的成本,那我肯定不干了嘛。

那我给你这个大模型公司提的要求,就是说你能把成本给我降到80万,甚至降到8万,那我们就得想,怎么最强大的模型蒸馏到足够小,也就是成本足够足够低的时候,仍然能够满足你这个场景的需求。

我觉得这一方面,闭源模型仍然有优势,因为闭源有最强大的基础模型,那他根据这个模型蒸馏或者裁剪出来的小模型,会比那些开源模型蒸馏的会更好。毕竟你的基础没有人家好,做出来的东西在竞争力上也会显得劣势。

所以这方面我们看到真实的需求确实是非常非常多的,我们也觉得这方面的机会,仍然在闭源不在开源。


以上就是我们与李彦宏的采访内容,这次采访其实对我个人理解市场很有帮助,因为这让我理解到,企业家是如何去思考大模型商业化落地这件事情,特别是在大厂们容易各种卷的中国市场。

当全球的生成式AI公司们,无论是科技巨头还是创业公司,都耗费大量资源、算力、金钱和人力去押注“Scaling Law是人类未来发展的正确途径”的时候,总是有种声音在提醒我们,我们需要算账,这件事情如何以更经济、更合理的方式去发展。

飞往上海采访李彦宏的前一个周末,在硅谷的一个聚会上,一位资深人士给我算了一笔账:

全球芯片用于AI上的支出是4000亿美元,这相当于1.1万亿美元的数据中心支出,如果我们要求 25%的ROIC(投资资本回报率),这相当于企业们需要产生1.4万亿美元的成本节省。

1.4万亿美元是全球技术工人工资的5%,全球总工资的3%,也是全球EBIT(息税前利润)的5%。或者,如果我们假设利润率为50%,则需要企业们用AI去创造2.8万亿美元的收入,即全球上市公司收入的3%,或全球GDP的2%。

这样算起来的话,是不是可以说,以现在的投入量,只要AI能让全球企业们创造2.8万亿美元的收入,那么发展AI这笔账就是能算得过来的,到底什么时候能打平这笔帐呢?

反正我看高盛是预测,生成式AI可能会在10年内推动全球 GDP 增长7%,也就是接近7万亿美元,并将生产率增长提高1.5个百分点。

所以,你会怎么去算AI发展的这笔帐呢?

视频有视觉和音乐的加持,更能呈现出这些精彩的故事细节。请跳转至硅谷101【视频号】收看完整版


注:部分图片来源于网络
【本期节目不构成任何投资建议】


【视频播放渠道】
国内:b站腾讯视频号西瓜|头条|百家号|36kr|微博|虎嗅
海外:Youtube
联系我们:video@sv101.net


硅谷101
有趣有用的商业访谈
 最新文章