刚刚,智谱又融了30亿!超200亿估值引领大模型创业赛道

科技   2024-12-17 09:32   北京  
西风 发自 凹非寺
量子位 | 公众号 QbitAI

就在刚刚,量子位获悉,大模型创业六小强之一的智谱,已最新完成一轮30亿人民币融资

新资方包括多家战投及国资,君联资本等继续跟投。

这是智谱近三个月来的第二轮融资

就在9月,中关村科学城公司宣布以投前200亿估值领投智谱,智谱也是国内估值率先超过200亿的大模型创业企业。

量子位不完全统计,智谱官方曾披露的融资情况如下:

2021年披露完成A轮过亿元融资,达晨财智、华控基金、将门创投等联合投资;2022年宣布获得数亿元人民币的B轮融资,君联资本和启明创投联合领投;2023年披露累计获得超25亿人民币融资,资方包括君联资本、美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等。

与此同时,智谱这次还罕见对外披露了商业化战绩,这也是其首次公开

具体数据如下:

  • 截止目前,智谱今年商业化收入增长超过100%。

  • 智谱开放平台bigmodel.cn,API年收入同比增长超30倍。

  • 平台日均Tokens消耗量增长150倍,其中付费Tokens增长超过40倍。

  • MaaS平台拥有70万企业和开发者用户,付费客户数增长超20倍。

  • C端产品智谱清言拥有超过2500万用户,三季度清言开始上线付费功能,ARR(年度经常性收入)收入超千万。

那么,问题来了——吸了如此多金&商业化战绩颇丰的智谱,下一步要做什么?

进一步研发智谱基座大模型

智谱透露,本轮融资将用于智谱基座大模型的进一步研发

从回答问题升级到解决复杂推理、多模态任务,更好地支撑行业生态发展。

就在刚刚结束的由量子位主办的行业峰会——MEET 2025智能未来大会上,智谱COO张帆刚好也透露了一些讯息。

他表示,OpenAI发布了对AGI目标能力的分级,智谱也有自己的理解。

智谱把AGI分为五个等级:

第一级是语言,智谱“已经做得非常不错了”。

第二级是对复杂问题的求解,可以看到o1这样的能力出现,对模型的应用类似从“大脑的系统1”转化为“系统2”,从简单直觉的回答,变成了深度性思考和拆解。

第三级开始使用工具,回答复杂问题时,不但能直接做深度思考,还能够跟外界持续交互获取信息。比如自主智能体不但能够通过API,还可以像人一样操作手机、PC甚至汽车的界面来获取信息。

第四级是实现自我学习。

第五级还没有非常明确的定义,但方向是超越人类,AI将具备探究科学规律、世界起源等终极问题的能力。

张帆表示,智谱在不断地探索和丰富模型的能力,从最开始的语言能力,到L2的复杂问题的能力,到工具能力以及现在正在试图解决的第四级别的GLM-zero和GLM-OS等能力。

这就来系统盘点一下智谱的探索路线。

端到端多模态和Agent布局初见规模

Sora爆火开年,之后多模态模型竞相出现,再到如今深度推理模型成顶流,端侧大模型和Agent技术成新风向。

梳理来看,智谱每一步都没有落下。

先有对标Sora的视频生成模型CogVideoX、对标GPT-4o的端到端语音模型GLM-4-Voice和GLM-4-VideoCall。

后有近期逐渐清晰的Agent和端侧领域布局——

智能体产品AutoGLM/GLM-PC、适配高通骁龙旗舰芯片的端侧大模型先后发布。

而在这其中,和OpenAI等不同,智谱一以贯之的准则之一是持续开源

翻看智谱早期的GLM报告,就会发现里面有“我们邀请大家加入它的开放社区,推动大规模预训练模型的发展”的字样,这家公司将“用开源的方式和开发者、行业用户交个朋友”的习惯延续到现在。

根据目前数据,ChatGLM等20余款模型已获15万GitHub星标,开源模型全球下载量3000万。

以下是智谱今年的技术发布时间轴:

  • 11月,发布AutoGLM升级版,可自主执行超50步的长步骤操作,也可以跨app执行任务,开启“全自动”上网新体验,支持基于浏览器的数十个网站的无人驾驶。

  • 11月,发布GLM-PC内测,基于智谱多模态模型CogAgent,探索“无人驾驶”PC。可代替用户参与视频会议、处理文档、搜索网页并总结、远程定时操作。

  • 11月,视频模型CogVideoX升级,支持10s时长、4k、60帧超高清画质、任意尺寸以及更好人体动作和物理世界模拟。CogVideoX v1.5-5B、CogVideoX v1.5-5B-I2V同期开源。

  • 10月,GLM-4-Voice端到端情感语音模型发布,并上线清言app,能够理解情感,有情绪表达、情感共鸣,可自助调节语速,支持多语言和方言,并且延时更低、可随时打断。

  • 10月,AutoGLM内测版发布,只需接收简单的文字/语音指令,就可以模拟人类操作手机,不受限于API调用。

  • 10月,和三星、高通宣布合作,分别共同打造AI产品和端侧多模态交互大模型。

  • 8月,发布跨文本音频和视频模态实时推理大模型GLM-4-Videocall,实现AI与人实时视频通话。通过API接口可无缝部署在包括手机在内各类带摄像头端侧设备。

  • 8月,新一代基座大模型GLM-4-Plus发布,语言理解、指令遵循、长文本处理等方面性能全面提升。

  • 7月,视频生成模型“清影”在清言PC端、移动应用端以及小程序端正式上线,提供文本生成视频和图像生成视频的服务,30秒即可完成6秒视频生成,真实还原物理世界中的运动过程。

  • 6月,GLM-4-9B模型开源,支持100万Tokens长文本和26种语言,并首次开源了基于GLM的视觉模型GLM-4V-9B,多模态能力比肩GPT-4V。

  • 1月,新一代基座大模型GLM-4发布,整体性能相比上一代大幅提升,支持更长上下文,具备更强多模态能力,推理速度更快,支持更高并发,大大降低推理成本。

随着年末将至,大模型创业新一年的风暴也即将出现。

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

量子位
追踪人工智能新趋势,关注科技行业新突破
 最新文章