算力炒作,早就不是啥新东西了,之前大家对于算力板块的炒作&预期,可能更多来自于海外大厂的资本开支&订单情况,但随着炒作时间的拉长,很多资金其实也有一定程度审美疲劳。
但最近,二级市场上算力板块似乎又疯了,再次成为最靓的仔,沃尔核材、寒武纪、电光科技等等持续大涨。
为啥?消息面上,最近国内巨头加力AII in AI,国产算力产业链或全面受益。
一来,小米正搭建GPU万卡集群,将对AI大模型大力投入。
二来,据浙商证券研报,字节跳动在AI上投入巨大,2024年资本开支将达到800亿元,接近百度、阿里、腾讯的总和(约1000亿元),2025年字节跳动资本开支有望达到1600亿元,旨在打造自主可控的大规模数据中心集群,其中约900亿元将用于AI算力的采购,700亿元用于IDC基建以及网络设备如光模块、交换机。
此外,“消失”在公众视野九个月后,最近理想汽车李想表示:当大模型出现后,人类会发生根本性的改变,不想“造车”了,AI意味着理想公司未来的全部!
小米正搭建GPU万卡集群
将对AI大模型大力投入
12月26日,据界面新闻消息,小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。
据悉,该计划已经施行数月之久,雷军在其中扮演了重要的领导角色:“在AI硬件这件事情上,最核心的是手机而不是眼镜,小米在这个领域不‘all in’是不可能的!”。小米大模型团队在成立时已有6500张GPU资源。
值得一提的是,小米对AI大模型的重视度提升,此前早已有信号。
12月20日,据第一财经报道,DeepSeek开源大模型DeepSeek-V2的关键开发者之一“天才AI少女”罗福莉将加入小米,或供职于小米AI实验室,领导小米大模型团队。
11月12日,小米第二代大模型MiLM2正式亮相,参数规模最小0.3B,最大为30B,云边端结合持续丰富参数矩阵,适用不同场景。第二代大语言模型在10大能力维度上,相比于第一代模型平均提升超过45%,并在端侧部署上支持3种推理加速方案。
此外,在小米2023周年演讲上,雷军谈及公司大模型业务进展,小米大模型技术的主力突破方向为轻量化、本地部署。作为最新成果,小米已初步跑通手机端侧大模型(13亿参数级别),在部分场景效果接近云端60亿参数级别的大模型,将同步推送升级大模型版本的小爱同学。
据公开资料显示,自2016年组建AI团队以来,小米人工智能团队经过7年6次扩展,相关领域人员规模已达3000多人,其AI技术能力已覆盖视觉、声学、语音、NLP、知识图谱、机器学习、大模型、多模态方向,并逐步接入手机、汽车、AIoT、机器人等业务板块。
研发投入接近BAT之和
字节要做中国的OpenAI?
截至2024年11月,根据AI产品榜数据,豆包App的月活跃用户数已接近6000万,仅次于OpenAI的ChatGPT,位列全球第二,MAU增速达到16.92%。
调用量方面,12月18日火山引擎CEO谭待表示,豆包大模型日均tokens使用量超过4万亿,自发布以来七个月增长超过33倍。近3个月来,豆包大模型在信息处理场景调用量增长了39倍、客服与销售场景16倍、硬件助手场景13倍、AI工具场景9倍。
浙商证券认为,字节加大流量投放、扩大资本开支、大力扩张团队,研发投入显著领先同行,类比于微软加力投资OpenAI,字节之于中国或可类比OpenAI之于美国。
推广力度方面,字节跳动在推广其AI产品上采取了大力度的广告投放。
例如,豆包智能助手在2024年4月至5月的广告投放金额接近1800万元,6月上旬更是飙升至1.24亿元。同时,公司利用抖音等平台的内部流量优势,为AI产品引流。
在许多大模型付费的环境下,豆包大模型在保障性能的前提下免费向公众开放,有助于快速提升用户数量,起到了扩大市占率以及获取庞大训练语料的作用。
人才投入上,据证券时报,字节创始人张一鸣不仅亲自负责从竞争对手公司招揽AI人才,还多次在内部强调追求"通用人工智能"的目标。
最引人关注的是,资本开支规模方面,字节跳动在AI上投入巨大,2024年资本开支达到800亿元,接近百度、阿里、腾讯的总和(约1000亿元)。2025年字节跳动资本开支有望达到1600亿元,旨在打造自主可控的大规模数据中心集群,其中约900亿元将用于AI算力的采购,700亿元用于IDC基建以及网络设备如光模块、交换机。
此外,字节跳动对未来Token消耗估计较高,预计将持续加大算力投入,2024年9月字节跳动火山引擎智能算法负责人吴迪曾表示,2027年豆包每天Token消耗量预计超过100万亿,是原来的100倍以上。
基于此,浙商证券提到,未来豆包大模型日活跃用户数以及token调用量有望持续增加,算力缺口巨大。
假设2027年日活达到5000万,日均token使用量达到50万亿,为了满足用户需求,在2.5倍峰值token倍数的假设下,2027年算力需求达到1.4E+21 FLOPS,假设未来字节能采购320 TFLOPS的芯片,则需要565.1万个GPU,缺口巨大。
李想“不想造车”了
AI意味着理想公司未来的全部
自今年3月理想MEGA上市遇冷后,李想一度“消失”在公众视野九个月,直到12月25日,李想进行了一场采访沟通会。
李想表示,当大模型出现后,人类会发生根本性的改变,AI意味着理想公司未来的全部!
理想一年超过100亿的研发投入,有接近一半是投在了人工智能方面,自己做基座模型,端到端和VLM(Vision Language Model视觉语言模型),从最开始的论文到技术的研究,到最后研发和产品的交付,也是全世界非常早做出来的,理想不仅仅在做智能驾驶,还有理想同学,智能商业和智能工业。
AI基座模型是人工智能时代的操作系统+编程语言,其所构建出来的,是人工智能的超级产品,是新一代的入口,它会在所有的设备之上,会在所有的服务之上。
李想还提到,移动互联网时代,自己选了一个非常垂直的领域,虽然你做得很好,但是某种程度上为了一棵树,错过了一个森林,所以在选择进行第三次创业的时候,要选择一个森林,要做那个森林里最大的,无论需要经历什么困难,绝对不只做一棵树了。
汽车行业,电动化是上半场,智能化是下半场,但这个智能化讲的不是传统的软件智能,而是真正的人工智能,这是造车往下延续的一个必经之路。汽车将从工业时代的交通工具,进化成为人工智能时代的空间机器人!
算力2.0来了?
如前文所说,算力炒作,早不是新东西&新故事了,但随着最近国内巨头纷纷加力AII in AI,市场又开始流行算力2.0的说法,逻辑上:
除前文提及的,国内巨头纷纷开启AI军备竞赛,资本开支加大,国内以字节为代表的大模型超预期,人工智能+政策持续推进,国内算力需求增长的斜率或将更陡峭。
此外还有声音认为,海外AI应用进展迅速、AI应用公司业绩加速落地,国内应用紧跟步伐,全球算力需求驱动逐渐从训练算力过渡到推理算力,推理算力需求提升带来的ASIC、AEC、DCI、SOC等环节的增量,这也是重要原因。
算力2.0,真的要来?算力投资,又有新故事可讲了?大家怎么看?欢迎评论区讨论交流呀~