在可预见的未来,大模型训练的需求不仅不会消退,而且会强劲增长,预训练的scaling law将会持续,目前的大模型需要新的芯片提升算力和准确性,所以GPT5迟迟没有发布;后训练的scaling law将逐渐普及,也就是基于AI自我学习的训练模型会逐渐展开;推理的scaling law已经在GPT-o1模型上开始启动,国内的大模型厂商也在跟进,这将是一个全球性的趋势。所以如果预训练一个scaling law的需求扩张到3个scaling law上,没有理由担心这个趋势会停止。
至于大模型的商业化变现问题,目前所有的初创公司都是亏损的,但无论是openAI这样的通用大模型、还是专业领域的模型,如Runway(数字艺术智能)、Writer(数字营销智能),都展示出不错的商业变现潜能,而且AI原生企业的数量和质量正在指数级增长,看看openAI、Anthropic、Kimi们的估值就知道了。
数字化转型已经从CPU转码进入GPU机器学习时刻,推理训练会加剧这个进程。我们可以从自身的互联网体验出发来思考这个问题,传统的互联网,本质上是将上游供给和下游需求撮合起来,比如电商连接卖家和消费者,内容平台连接创作者和用户,打车APP连接司机和乘客,本地生活连接本地商家和普罗大众,搜索实际上也是连接的供给端(站长和APP开发者)和需求端(普通用户),供给是某个个体或组织提供的,平台只是通过网络将他们汇集起来,分发给用户,整体上它们仍然是点对点式的供需匹配。而AI的供给会越来越趋向机器学习和创造转变,比如你向ChatGPT寻求答案,它会创造一个唯一的结果给你,当然这个内容也是它不停地训练学习来的;比如你向robotaxi出租车打车,实际上就是AI在为你提供服务,而不是具体的某个人类司机;你向Runway、Midjourney提出需求,背后的AI真的会给你创造出一张图片或视频,而不是过去那样,某个远方的用户拍摄或创作的内容。
无论是哪个领域,这种供给的效率提升——相对于传统的人类供给——都是指数级的增长。
在这样的背景下,从AI原生初创公司开始,到互联网巨头,再到传统行业的数千万家公司,在IT部署过程中,都将逐渐把原先的CPU切换到GPU,而英伟达会是最大的受益者。
AI不仅在渗透数字世界,也在切切实实改变物理世界,从无人驾驶、智能配送到智能机器人、AI改造过的工厂流水线,我们将看到越来越多的设备是基于GPU为内核,而不是CPU。