西风 发自 凹非寺
量子位 | 公众号 QbitAI
就在刚刚,量子位获悉,大模型创业六小强之一的智谱,已最新完成一轮30亿人民币融资!
新资方包括多家战投及国资,君联资本等继续跟投。
这是智谱近三个月来的第二轮融资。
就在9月,中关村科学城公司宣布以投前200亿估值领投智谱,智谱也是国内估值率先超过200亿的大模型创业企业。
量子位不完全统计,智谱官方曾披露的融资情况如下:
2021年披露完成A轮过亿元融资,达晨财智、华控基金、将门创投等联合投资;2022年宣布获得数亿元人民币的B轮融资,君联资本和启明创投联合领投;2023年披露累计获得超25亿人民币融资,资方包括君联资本、美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等。
与此同时,智谱这次还罕见对外披露了商业化战绩,这也是其首次公开。
具体数据如下:
截止目前,智谱今年商业化收入增长超过100%。
智谱开放平台bigmodel.cn,API年收入同比增长超30倍。
平台日均Tokens消耗量增长150倍,其中付费Tokens增长超过40倍。
MaaS平台拥有70万企业和开发者用户,付费客户数增长超20倍。
C端产品智谱清言拥有超过2500万用户,三季度清言开始上线付费功能,ARR(年度经常性收入)收入超千万。
那么,问题来了——吸了如此多金&商业化战绩颇丰的智谱,下一步要做什么?
进一步研发智谱基座大模型
智谱透露,本轮融资将用于智谱基座大模型的进一步研发:
从回答问题升级到解决复杂推理、多模态任务,更好地支撑行业生态发展。
就在刚刚结束的由量子位主办的行业峰会——MEET 2025智能未来大会上,智谱COO张帆刚好也透露了一些讯息。
他表示,OpenAI发布了对AGI目标能力的分级,智谱也有自己的理解。
智谱把AGI分为五个等级:
第一级是语言,智谱“已经做得非常不错了”。
第二级是对复杂问题的求解,可以看到o1这样的能力出现,对模型的应用类似从“大脑的系统1”转化为“系统2”,从简单直觉的回答,变成了深度性思考和拆解。
第三级开始使用工具,回答复杂问题时,不但能直接做深度思考,还能够跟外界持续交互获取信息。比如自主智能体不但能够通过API,还可以像人一样操作手机、PC甚至汽车的界面来获取信息。
第四级是实现自我学习。
第五级还没有非常明确的定义,但方向是超越人类,AI将具备探究科学规律、世界起源等终极问题的能力。
张帆表示,智谱在不断地探索和丰富模型的能力,从最开始的语言能力,到L2的复杂问题的能力,到工具能力以及现在正在试图解决的第四级别的GLM-zero和GLM-OS等能力。
这就来系统盘点一下智谱的探索路线。
端到端多模态和Agent布局初见规模
Sora爆火开年,之后多模态模型竞相出现,再到如今深度推理模型成顶流,端侧大模型和Agent技术成新风向。
梳理来看,智谱每一步都没有落下。
先有对标Sora的视频生成模型CogVideoX、对标GPT-4o的端到端语音模型GLM-4-Voice和GLM-4-VideoCall。
后有近期逐渐清晰的Agent和端侧领域布局——
智能体产品AutoGLM/GLM-PC、适配高通骁龙旗舰芯片的端侧大模型先后发布。
而在这其中,和OpenAI等不同,智谱一以贯之的准则之一是持续开源。
翻看智谱早期的GLM报告,就会发现里面有“我们邀请大家加入它的开放社区,推动大规模预训练模型的发展”的字样,这家公司将“用开源的方式和开发者、行业用户交个朋友”的习惯延续到现在。
根据目前数据,ChatGLM等20余款模型已获15万GitHub星标,开源模型全球下载量3000万。
以下是智谱今年的技术发布时间轴:
11月,发布AutoGLM升级版,可自主执行超50步的长步骤操作,也可以跨app执行任务,开启“全自动”上网新体验,支持基于浏览器的数十个网站的无人驾驶。
11月,发布GLM-PC内测,基于智谱多模态模型CogAgent,探索“无人驾驶”PC。可代替用户参与视频会议、处理文档、搜索网页并总结、远程定时操作。
11月,视频模型CogVideoX升级,支持10s时长、4k、60帧超高清画质、任意尺寸以及更好人体动作和物理世界模拟。CogVideoX v1.5-5B、CogVideoX v1.5-5B-I2V同期开源。
10月,GLM-4-Voice端到端情感语音模型发布,并上线清言app,能够理解情感,有情绪表达、情感共鸣,可自助调节语速,支持多语言和方言,并且延时更低、可随时打断。
10月,AutoGLM内测版发布,只需接收简单的文字/语音指令,就可以模拟人类操作手机,不受限于API调用。
10月,和三星、高通宣布合作,分别共同打造AI产品和端侧多模态交互大模型。
8月,发布跨文本音频和视频模态实时推理大模型GLM-4-Videocall,实现AI与人实时视频通话。通过API接口可无缝部署在包括手机在内各类带摄像头端侧设备。
8月,新一代基座大模型GLM-4-Plus发布,语言理解、指令遵循、长文本处理等方面性能全面提升。
7月,视频生成模型“清影”在清言PC端、移动应用端以及小程序端正式上线,提供文本生成视频和图像生成视频的服务,30秒即可完成6秒视频生成,真实还原物理世界中的运动过程。
6月,GLM-4-9B模型开源,支持100万Tokens长文本和26种语言,并首次开源了基于GLM的视觉模型GLM-4V-9B,多模态能力比肩GPT-4V。
1月,新一代基座大模型GLM-4发布,整体性能相比上一代大幅提升,支持更长上下文,具备更强多模态能力,推理速度更快,支持更高并发,大大降低推理成本。
随着年末将至,大模型创业新一年的风暴也即将出现。
— 完 —
点这里👇关注我,记得标星哦~