当下这个阶段,Deepseek引发的冲击,大家都看到了,但是大部分人,都在讨论是DS干掉OpenAI,还是美国继续统治AI,从来没有人讨论过:工具和人的关系——AI的商业模式成立吗?
在讨论AI的商业模式是否成立之前,我们要先弄清楚AI到底是什么,它商业化的核心逻辑是什么?
国产AI的爆发,不是技术的突破,也不是开源对闭源的胜利,而是站在全人类福祉的高度,道德层面的胜出:Deepseek的出现让AI惠及全人类,而避免了成为少数人获取暴利的工具!
这篇文章的观点未必是对的,但是绝对值得你看看,并且想一想再做决定,我尽量用简单的语言,将这个事情讲清楚。
1. ChatGPT的Transformer架构到底是什么?
当我2年前第一次看到transformer这个词的时候,脑子里闪现的的第一个画面是花花公子杂志上的雷娜:
大家别想歪了,这是计算机图像处理的一个标准图,用于快速傅里叶变换fft。fft中的“t”其实就是transform的意思。
左面是原图,右边是这张图fft之后的图,二者完全一样!fft是一个可逆变换。
为什么要这么处理,有很多理由,fft被用来做压缩——将那些“不那么重要”的信号,给处理掉,这样减少图片的大小。但是给你原图的时候,你不知道哪些像素是重要的,哪些像素是不重要的(或者不是像素,而是叠加咋一起的信号),直接让你在原图上p,也不是不可能,但是估计只有画家才有这个能力——就好像我们看的漫画一样,一个人通过几个线条勾勒出来,你就知道他是谁,但是普通人没这个能力。
fft变换完了之后,就是告诉你,高频信号不重要,低频重要。这样保留低频信号,一个图片中90%的信息量都保留下来了,但是存储数据需要的空间可能只有10%了。这里尤其需要注意,信号的重要性和信号的“多少”之间没有关系——我们后面会反复强调这个概念。
从信息熵的视角来说,一大堆信号中,可能只有10%的数据是重要的,包含了90%的信息。其余90%的数据,都是不那么重要。所以在图像的存储和传输过程中,在满足所需要的精度的情况下,这么做是现实经济意义的。
如果理解了这个,我们再说ChatGPT——它不是智能体,只是一个更高级的信号转换算法罢了。
2. 信号转换与信息生成
我们看看GPT构架下的数据处理方式,简单来说,通过一大堆的数据直接喂给模型,最终得到的其实是一对数据之间的相关性权重,也就是token之间的概率。
如果我们把大模型当做一个黑盒子,那么结果就是:
输入——大模型——输出
这就是一个非常典型的控制模型:你给一个输入,然后得到一个输出。这个模型下理解大模型,其实大模型就是一个基于统计的信号转换装置。
在多模态上,这点更为突出。比如,我们可以描述一个人的长相:女性,20-25岁,瓜子脸,双眼皮,眼间距大点,耳朵细长,五官立体性强.......然后要求gpt给出一个画像,这个是没问题的——这不就是刑侦过程中常用的画像技术吗?也就是,刑侦画像专家试图将语言描述中的“个性化”信息,依据解剖学的基本知识(这个是基于生物统计的,也就是专家掌握的信息),转化成一个图像信号输出。理论上语言和图像包含的信息熵是一样的,这样就实现了完美转换。
但是对破案这个事情真的重要的是经过大量训练的“大模型”/专家是核心吗?显然不是!虽然专家很重要,但是个性化的描述信息才是对解决案件最重要的信息。
从这个现实中的例子,我们可以总结如下:
1.解剖学知识是公共知识,这个是大模型的长处,但是公开的信息,是不重要的。比如这个文字描述中,你是不需要强调,两个眼镜,一个鼻子,两张嘴。当然了,如果你强调说,这个人只有一个耳朵,那就是非常重要的特征信息了——只有不同,易于常识的特征,才包含了最大的信息熵。
2.对问题的解决,最重要的往往不是公共信息,而是增量信息——但是这个增量信息,大模型/画像专家是自己不生产,它必须有输入才可以,然后专家依据增量信息+公共信息,产生了一个输出。
3.增量信息可能并不多,但是对消除不确定性(在人群中找到符合这个特征的人)是至关重要的;公共信息可能占比非常高,但是这个不重要。如果画像过程中你的描述是:两个眼睛,两个耳朵,一个鼻子,一张嘴——这种描述没有提供任何“有用”的信息熵。
我们做个理论总结:现实中,真正重要的是如何生成信息熵,这是智能的本质,生成关键的私有信息;而大模型本身只是基于这些输入,得到一个输出的结果罢了,模型本身不产生信息熵——甚至在统计的过程中,必然会损失掉一部分信息熵。从信息熵的角度来说,你能把握住大模型的本质,如果你只看花里胡哨的输入和输出,你把它当做智能,那可能是有严重的问题的。
这个事情类似的提问是:1. OpenAI能不能创造一个比自身还要强的大模型?2. OpenAI能不能自主设计一个核聚变反应堆?它现在设计裂变堆本身可能都是有难度的——能提出问题本身的人,肯定知道问题如何解决,不信你试试,能不能让他帮你设计一个爆款视频的文案?
3. 被摧毁的AI商业模式
商业模式不成立,可能才是这次最大的问题。
如果我们认为,真正重要的信息虽然很少的,但是很重要;公开的信息虽然很多,但是没有那么重要。也就是说,解决问题的关键是在少数的私有信息上,那么问题来了:AI如何获取哪些虽然少,但是非常关键的私有信息?
首先,AI自己是无法生成这个东西的。OpenAI的想法是,创造一个足够聪明的大模型,只需要不断地喂数据就可以吗?他们认为是可以的,但是实际上是不可能的.......
而且,这个东西,并不是说你拿到了就可以了。可能同样的一个策略,在去年是可行的,但是在今年,因为外部环境变化了,可能就不行了。现实当中,我们是通过不断的试错和创新来解决这个问题的。不可能是一个方法,可以让你打遍天下的——必须要做动态的调整,投资是这样,生意也是这样的。
但是,你觉得会有人把自己私有的关键信息给大模型吗?他们只可能拿到一个基于公有信息训练出来的大模型,然后用自己的关键私有信息通过强化学习的方式,构建一个自己的工具!
我们举个例子,比如我们以药物合成为例。你可能会有大量的共有信息,然后大模型给出了200个潜在的分子结构,但是想要做成一款药,那应该怎么做呢?
你可能首先要合成这些东西,然后拿到这些分子式之后,要做大量的实验,安全实验,动物实验,人体实验,临床一二三期等等,一通做下来,终于出了一款爆款药物。
在这个过程中,大模型当然可以加速你的研发流程,但是你会把花费了大量的时间,人力,物力得到的私有信息公开吗?显然不会啊,你保密还来不及呢~
这个过程中生成的私有信息,你会留存下来,然后在自己的私有模型里,不断地积累,可能50年的时间里,这个公司开发了上百款的药物,这里面积累了大量的私有信息,这些私有信息都是你不断努力工作,慢慢积累下来的。这是你的研发团队最核心的竞争力,你会找到一个可靠的高性能的大模型,不断地训练,形成自己的私有知识库,然后加速后续更好的药物开发,但是你绝对不会把这些东西公开,让这个事情惠及其他制药企业。
这里,大模型只是一个高效的研发管理工具,会极大的提升你的效率,降低你的成本,增加你的成功率。但是你不会把这些私有信息交给OpenAI,然后OpenAI获取了这些信息之后,训练出来一个很NB的大模型然后给自己赚钱。OpenAI想要这些也可以啊,你出钱买就可以了........
所以,在研发新药这个产业里,大模型是一个非常强大的工具,但是真正的核心竞争力,所需要的那些关键信息,必然还是人创造出来的——这些东西通过计算,是无法得到的。
这就类似于在超高音速武器研发中,美国人选择了计算机模拟这条路,但是中国选择了风洞这条路......中国人会把风洞吹出来的数据,尤其是那些经验上know how的数据给美国人吗?显然不可能啊.........
这就回到了那个根本问题:在工具和人之间,到底谁才是那个推动文明进程的关键力量?显然是人!工具不可能凌驾于人之上.....工具只能是人的辅助,不能决定人的生死。
模型所需要的输入信息,必然是外源性的,这个东西,不可能存在于大模型的权重当中。
所以从商业模式的角度来说,企业所需要的大模型应该是那种可以落地,然后构建自己私有的数据库,而不是构建一个由OpenAI垄断,大家上交自己的私有信息,然后钱让OpenAI赚了,这怎么可能啊。
所以,OpenAI为代表的美国AI企业,他们想的这种纯粹的是一种妄想,逻辑上AI不可能被垄断,AI只是一种方法,一种工具,它并不是创新的源泉。它从开源转向封闭的那一天开始,就是商业逻辑走向错误路线的开始,依赖于垄断工具的方式能实现几万亿美金的市值,那么为什么卖铲子的不自己直接垄断铲子呢?这就是,死了张屠夫,难道就只能吃浑毛猪了?
Deepseek的出现,一方面给大家提供了一个功能强大的大模型,开源的,大家都可以在自己的业务线中,迅速的落地和嵌入。这也是为什么DS发布了之后,不到1个月的时间,相当多的企业,都用DS这个模型落地的原因。代码自己有,服务器自己的,数据是自己的........这种低成本的落地方案,当然是受到大家喜欢的啊。
所以奥特曼说了那句话,大概的意思是:在开源和闭源之间,OpenAI可能犯了一个重大的战略性错误!但是这个错误已经无法更改了,这么多的资本,这么多的投资人,都投入了AI,现在你再开源......路径形成了之后,无法退回。
如果这么思考,我们有理由相信,基于公开信息和一般公共信息的大模型训练,可能已经到达了天花板。继续提升的空间很小了——除非引入各家企业的私有关键信息。别看公开信息很多,但是真正重要的是那没有公开的可能只占0.1%的信息——这部分价值最大的信息,逻辑上是不可能给OpenAI的。当你付出了几倍的代价,基于公开信息训练大模型,结果性能只能提升10%的时候,你做这个事情的意义是什么?
OpenAI和Deepseek看起来是开源和闭源之争,看起来是技术优劣之争,本质上来说,这是商业模式设计的错误!这个才是AI之战的根本。
4. 真正的威胁
不是说大模型一无是处,很显然,技术上仍然是非常强大而且潜力巨大的一个工具,但是商业逻辑上,走闭源这条路就是错误的。
各家拿到了大模型之后,会不断地支持这个生态,然后回家训练自己的专有模型。你可以把大模型理解成企业的IT基础设施,但是真正重要的是里面的数据!!!
目前的大模型是的基本逻辑结构是:
输入——大模型——输出
在两类场景中,会产生重大影响:输入和输出之间,主要是依托于相关性/因果性强的决策模型。这其中最典型的就是一般医疗,自动驾驶,机器人这些。他们的输入,都是个性化的输入,但是这些一般技能,大家掌握的都差不多。这类是取代最快的。
还有一类,关键是看你输入什么,给你一个很强大的大模型,但是你要去人为决定输入什么。比如我举个例,就是投资当中的决策。我给你个很NB的大模型,这些模型是用历史上被验证过的质量非常高的研报,结果准确率非常高的研报,做输入,然后得到一个输出。这样训练出来的大模型做投资决策没有问题。
但是,谁来决定输入什么呢?这是一个开放问题,你会发现,不同的企业,不同的行业,在不同的发展阶段,不同的外部环境的情况下,它最终的输出结果是不一样的。所以,这需要非常资深的投资经理来决定,到底基于什么是主要矛盾做出这个结果——也就是相比于决策逻辑本身,找到主要矛盾才是最关键的。投资当中,最关键的是抓住主要的驱动因素,而非基于这个因素的决策逻辑——这个决策逻辑对一般人来说是有门槛的,但是对专业人士来说,这不是事儿。难点是,如何取舍,从众多影响因素中,找到那个关键驱动变量——甚至是在不同的投资决策周期下,这个驱动变量都是不一样的。
所以相比于解决问题的具体步骤,关键是提出正确的问题——当你不熟悉解决问题的步骤的时候,那你想想,到底怎么提出一个高质量的技术性问题呢?这显然是不可能完成的事情.........
输入信息是完备的,并且是确定的/非开放式的,这种工作,最容易被大模型替代;但是那种输入信息不完备的开放式系统,可能大模型只是一个辅助性工具。
但是对那些输入非常确定的,可以基于因果逻辑决策的系统,为什么要弄这么麻烦呢?比如,如果红灯就停,绿灯就行,这种简单决策逻辑,根本不需要大模型就可以做的很好。所以在工业自动化领域,大家会将生产流程按照顺序拆解成这种非常简单的决策逻辑模型,然后用简单的自动化技术实现。这样做,成本低,效率高,可靠性高,其综合输出结果显著的优于大模型。
从控制模型的角度,将输入进行分类你会发现,简单的现在就做的很好,复杂的大模型做不好,中等的复杂度的最适合大模型,这种落地场景是非常有限的——但是即便是有限的场景,可能市场空间也足够大了。但是这种场景,企业又会构建自己专有的大模型,不会公开的。
所以,AI的商业逻辑需要重构,Deepseek这类开源模型,或者说哪怕出现商业机构,提供这种商业化的大模型,但是最后也只能赚到铲子的钱,是没办法通过垄断铲子赚到金子的钱的!
总结一下,其实就是,面对工具的时候,我们认识到一个问题,真正的价值创造只能来自于人的劳动,而不是工具!工具至少加速这个价值创造过程的发明而已,如果将工具和人本末倒置了,商业模式必然是走不通的。
欢迎大家讨论,面对这样一个目前来看,不说革命性,但是至少非常强大的新技术,新工具,我们要乐观的同时,保持理性。用大家喜欢第一性原理来说,所有第一性原理的第一性原理,只有人!
人能创造大模型,但是大模型创造不了人!即便是能创造生理意义上的人,但是创造不了人的社会属性,最多只能是改变人的社会属性!
国产AI,不是技术上的超越,而是站在人类命运共同体的历史潮流前,我们没有选择垄断AI为自己谋取利益,而是将AI平权运动推向了一个新的高度,让AI造福全人类,而不是成为少数人剥削多数人的工具!