「无问芯穹」获近10亿元累计融资,致力于成为大模型时代首选的“算力运营商”|顺为系

职场   2024-09-02 11:31   北京  

近日,无问芯穹(Infinigence AI)宣布完成近 5 亿元 A 轮融资,至此,在成立短短 1 年 4 个月内,无问芯穹累计已完成近 10 亿元融资。本轮融资联合领投方为社保基金中关村自主创新专项基金(君联资本担任管理人)、启明创投和洪泰基金,跟投方包括小米、金山办公、联想创投、软通高科等战略投资方,国开科创、上海人工智能产业投资基金(临港科创投担任管理人)、徐汇科创投等国资基金,以及顺为资本、达晨财智、德同资本、尚势资本、森若玉坤、申万宏源、正景资本等财务机构。无问芯穹的过往投资方还包括百度、智谱、同歌创投等战略股东,以及红杉中国、砺思资本、徐汇资本、北极光创投、真格基金、惠隆创投、经纬创投、无限基金 SEE Fund、金沙江创投、星连资本、绿洲资本、南山资本、光源资本、七熹投资等众多知名投资机构。

无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持 Infini-AI 异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M 种模型”和“N 种芯片”的 AI 算力底座,做 AI 模型算力的“超级放大器”,致力于成为大模型时代首选的“算力运营商”。

|无问芯穹投资方阵容

无问芯穹联合创始人、CEO 夏立雪表示:“感谢多方资本对无问芯穹的青睐,让我们在‘天时、地利、人和’的创业征途上多了一份不负厚望的笃定。AI 2.0 浪潮带来的新‘二八定律’,Transformer 架构统一了新的技术范式,意味着只需解决 20%的关键技术问题即可支撑 80% 的垂直场景泛化,给软硬件联合优化技术的标准化和规模化提供了难得的机遇;中国算力生态正面临的供需矛盾以及资源分布不均的现状,为我们拉动上下游协力实现多元异构算力的高效整合创造了时代机遇;而我们源于清华电子系的深厚底蕴、十余年的技术积累和丰富的产业经验所形成的产研结合的‘复合型’团队,更成为 AI 领域的人才‘引力井’,构成了无问芯穹独特的人才竞争力。”

一、关于「无问芯穹」

无问芯穹(Infinigence AI)作为国内领先的 AI 基础设施企业,致力于成为大模型时代首选的算力运营商。依托“多元异构、软硬协同”的核心技术优势,打造了连接“M 种模型”和“N 种芯片”的“MxN”AI 基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹 Infini-AI 异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。   

无问芯穹以“释放无穹算力,让 AGI 触手可及”为使命,通过不断的技术创新实现普惠 AI,让算力成本实现万倍下降,如同水电煤一般为千行百业注入新质生产力。

二、依托软硬协同、多元异构技术优势

      做AI模型算力的“超级放大器”

大模型能够支撑的实际产业规模,取决于 AI 模型的实际可用算力,是一个壁垒更高、玩家更稀缺、价值量更高的领域。基于对于 AI 行业的深刻理解和长期实践,无问芯穹超前判断大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,通过集群规模放大整体算力规模,由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI 模型算力”公式。

遵循这一公式,无问芯穹将通过软硬件联合优化技术,持续提升芯片算力在大模型任务中的利用率,并通过多元异构算力适配技术,提升集群算力利用率,扩大行业整体算力供给。

|无问芯穹AI模型算力公式

在软硬件联合优化方面,无问芯穹通过自研的推理加速技术 FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先 SOTA,完成多个主流开源大模型在 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与 AMD 签署战略合作,携手推动商用 AI 应用的性能提升。

在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7 月发布的大规模异构分布式混合训练系统 HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和 AMD、NVIDIA 共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到 97.6%,平均高出基准方案约 30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩 30%。

三、打造Infini-AI异构云平台,

      提供从异构算力利用

      到大模型应用开发全栈式能力

近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M 种模型”和“N 种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。

无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出 Infini-AI 异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国 15 座城市。此外,Infini-AI 异构云平台还包含一站式 AI 平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio 一站式 AI 平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio 大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。自平台上线以来,已有 Kimi、LiblibAI、猎聘、生数科技、智谱 AI 等多个大模型行业头部客户在 Infini-AI 异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。

四、做大模型时代首选的算力运营商,

      繁荣异构算力生态、

      加速AGI普惠进程

无问芯穹构建的 Infini-AI 异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。

遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和 LPU IP 领域亦有超前布局,致力打造“端模型+端芯片”闭环能力。无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI 手机将成为未来人机交互的重要接口,将助力每一个终端实现 AGI 级别的智能涌现。

以“释放无穹算力,让 AGI 触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低 10000 倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速 AGI 的普惠进程。

专访  | 2024 IPO |
两会 | 探索计划 | 月报 行业观察
智能制造 | 深度科技 | 人工智能 | 消费

顺为资本
顺为资本管理近60亿美元规模的美元和人民币双币基金。重点关注深科技、智能制造、互联网+、智能硬件、消费、企业服务、电动汽车生态等领域的初创期及成长期优质创业公司。我们希望与创业者共同携手创造令人尊敬的伟大企业。
 最新文章