追赶NVIDIA,国产AI芯片需努力的5个方面

科技   2024-11-29 19:42   北京  

大会预告

12月5-6日,2024中国生成式AI大会(上海站)将举办,其中,AI Infra峰会将在主会场第二日进行,上海交大副教授、无问芯穹联合创始人兼首席科学家戴国浩,GMI Cloud 亚太区总裁King.Cui,英飞流创始人张颖峰,Jina AI联合创始人兼首席技术官王楠,中昊芯英芯片软件栈负责人朱国梁等14位嘉宾将带来主题演讲和圆桌讨论,欢迎报名~


智算时代的到来,对AI芯片的需求也迎来爆发,据IDC统计,2024H1国内数据AI加速卡出货量在90多万片(仅供参考),英伟达市场占有率高达80%,虽然国产AI芯片这两年持续发力,但从出货量上依然和NV差距明显,排名top3的国产AI芯片厂商有HW、KLX和HWJ,出货量分别在15万片,1.5万片和1.1万片,为什么很多国内知名AI芯片厂商没上榜,我认为原因有二,一是销量过低IDC没有统计,二是公司做事低调不想被宣传(大家懂得),国内市场国产AI芯片的可提升的空间巨大,今天我们简单聊聊,要想追赶NVIDIA,夺取更多市场份额,国产AI芯片需要努力或加强的5个方面(性能、互联、生态、产能和性价比)个人总结。

01 单芯片的算力性能


目前我们讨论最多的就是国内AI芯片在售或下一代产品到底是对标A100还是H100,从性能上是英伟达的几成,从我了解到的消息;
1、国内可在售主流AI芯片:基本上都是对标NV的A100或者V100,比如HW的ST从单卡参数和A100持平,这里性能主要指不同精度(以FP16为主)的性能以及显存的参数(比如显存的容量、类型和显存带宽);总结就是和英伟达产品还有2代左右的差距。
2、国内下一代的AI芯片:很多朋友都对国内AI芯片厂商下一代产品感兴趣,结合我的了解,厂商都号称对比H100,从已拿到的参数看,确实不少新品在FP16的性能上超过了A100,但是和H100单卡1P的(稠密)算力来说还有一定差距,只是做到H100单卡的50%-70%,从显存方面国产某些厂商做到了64、96GB,部分超过了H100的80G。

02 芯片间的互联技术


作为英伟达三大护城河之一的NVLink技术,是AI芯片互联的标杆(最新的可实现芯片间1.8TB/s的全互联),因为是NV私有的,所以其他厂商的芯片无法使用。在大模型训练方面需要多卡协同处理,对AI芯片的互联带宽要求很高,目前国内AI芯片厂商基本都推出了互联技术(部分有互联芯片),整体性能都超过了PCIe 5.0x16的128GB/s,已公开的有200多GB/s、400GB/s,也有600GB/s,都和英伟达NVLink差距明显,下一代产品为了进一步提升互联带宽,多家公司推出了类似NVlink Sw的互联转用芯片,可以实现卡到多卡间,卡卡间的速率提升(部分参数不能明说,基本都在NVLink5.0速率的30-60%之间)。

03 芯片软实力-生态


英伟达CUDA作为其GPU产品使用的工具集(我上周有文章专门做过分享),经过了10多年的持续迭代,产品的可用性、易用性和市场认可度是最高的,国内AI芯片在生态方面主要是2个路线,1是兼容CUDA进行生态开发,比如天数、海光、摩尔线程等,2是自建生态,比如HW ST、HWJ、KLX等都建立了自己的生态体系;客观来讲,芯片性能再优秀没有生态的支持是无法广泛推广的,因此“生态建设”是国产AI芯片软实力提升的关键,是真正让客户能用起来的必须要走的路;

04 芯片的产能和供应


最近大家都看到了一则消息,就是芯片代工受到老美的影响,台积电、三星这类领先的拥有先进制程工艺的代工厂不被允许为大陆的芯片提供服务,据了解虽然国内的芯片公司也针对此类事件有预案(和应对策略),但其影响也是很大的,个人认为主要是体现如下两个方面:
1、成本的影响:主要是和芯片代工良品率有关,良品率越低,单芯片的成本可能就越高。
2、产能的影响:一旦产能不足就会影响产品交付,可能会导致有订单无法交付的情况发生。

05 芯片综合性价比


我们知道,真正对AI芯片需求量最大的行业是互联网(含大模型类)的公司,本质上还是企业属性,对应AI芯片的选择肯定要考虑综合性价比,而性价比又和市场规模化有关,英伟达产品从综合性能上毫无疑问是top1,但是从价格上也是居高不下,从NV的角度,既然我的产品这么能打,性价比上没有对手,就没有降价的理由,国产AI芯片要实现市场的突破,在解决了性能、生态、供应的问题后,必须要面临的就是性价比之战,只有让用户觉得买的值才是全行业市场突破的重点。
以上为个人观点,仅供参考,不准确之处,欢迎大家多多指正!

—END—


点击下方名片


即刻关注我们


算力猩
隶属于智猩猩,关注计算芯片创新,解读中国算力突破。
 最新文章