Cerebras CEO:DeepSeek引发企业客户对其AI芯片需求暴增!

科技   2025-02-04 13:11   广东  

据《财富》杂志官网近日报道称,主要面向人工智能(AI)推理任务应用的晶圆级AI芯片厂商Cerebras Systems宣布,其旗下晶圆级AI芯片(应该是指WSE-3)执行700亿个参数的DeepSeek-R1中型模型的速度,要比当前最快的GPU还要快57倍。

Cerebras Systems CEO Andrew Feldman受访时表示,企业客户对中国AI大模型厂商DeepSeek最新推出的R1推理模型极为热情。他说DeepSeek-R1发布十天后,“我们迎接了暴增的需求。”

根据官方资料显示,WSE-3依然是采用了一整张12英寸晶圆来制作,基于台积电5nm制程,芯片面积为46225平方毫米,拥有的晶体管数量达到了4万亿个,拥有90万个AI核心,44GB片上SRAM,整体的内存带宽为21PB/s,结构带宽高达214PB/s。使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,相比上一代的WSE-2提升了1倍。

△Cerebras WSE-3芯片

DeepSeek-R1推理模型以极低训练成本,就获得了性能媲美OpenAI 等竞争对手的最先进的推理模型的性能,对现有技术路线具有颠覆性,并且DeepSeek还将该模型进行了开源,这也使得全球的科技厂商都能够快速利用该模型来构建自己的AI应用,相关AI芯片厂商也能够快速的针对该模型进行适配和优化,以充分利用AI芯片的性能,即便是英伟达AI GPU以外的AI芯片也能从中获益。

为示范Cerebras的AI服务器执行DeepSeek-R1速度,Andrew Feldman现场指示模型以Python语言撰写国际象棋游戏,只花1.5秒便可完成,相比之下OpenAI最新发布的 o1-mini 推理模型却要花22秒才能用传统GPU完成相同任务。但因OpenAI模型属封闭系统,无法直接在Cerebras硬件测试,故难完全对等的进行比较。

△Cerebras基于WSE-3的CS-3超级计算机,可用于执行参数高达24万亿的人工智能模型

不过,Andrew Feldman仍强调,数学与程序任务,DeepSeek-R1表现较OpenAI-o1优异。对些类型任务,“你能更快获得精确答案。”

但由于R1是中国的大模型技术厂商DeepSeek所开发,因此也引发了欧美各国基于政治因素而以隐私安全等问题为由进行发难。美国国会已着手立法,拟全面禁止来自中国的先进AI模型。美国国防部、国会、海军、NASA以及德克萨斯州已相继禁止在政府官方设备上使用DeepSeek模型。

Andrew Feldman也表示,DeepSeek推出的基于其AI大模型的AI聊天应用是全世界最受欢迎的APP,若直接使用,数据势必会被传回中国。因此,他要大家“别这么做”,建议选择美国企业托管的大型语言模型(LLM),例如Cerebras、Perplexity等业者。

虽然Feldman坦言DeepSeek确实有些潜在风险,但使用者只需保持基本判断力即可。他比喻“当你用电锯时,应穿戴钢头靴和护目镜。但不代表不应用电锯,而是要谨慎使用。”

编辑:芯智讯-浪客剑

往期精彩文章

通过新加坡获取了AI芯片?美国对DeepSeek展开调查:英伟达回应!
净利暴跌63%!ST计划关厂并裁员3000人!
ASML营收创历史新高:中国大陆净系统销售占比跌至27%!
DeepSeek掀起AI算力革命:英伟达暴跌17%!台积电暴跌13%!
Q1财测不及预期,股价大跌7.5%!TI 回应在华倾销被调查传闻
传瑞芯微前副总经理陈锋将加盟安谋科技!
传台积电6万片晶圆报废!内部人士回应
传字节跳动今年将采购240亿元国产AI芯片!
瑞芯微副总经理陈锋辞职!
寒武纪遭前CTO梁军索赔42.9亿元!
黄仁勋宴请35位供应链大佬:每桌菜价约1182元!
前华为悍将李健出任荣耀CEO!赵明:选择放手和离开!
全栈自研!又一家国产GPU厂商启动IPO!引发“寒王”暴跌?

行业交流、合作请加微信:icsmart01
芯智讯官方交流群:221807116

芯智讯
“芯智讯”——有料的科技新媒体!专注于半导体产业链、智能手机产业链、人工智能、AR/VR、智能硬件及汽车电子等相关领域。
 最新文章