突发:NVIDIA正式加入DeepSeek“朋友圈”

2025-01-31 16:48   河北  

就在刚刚,被一则消息刷屏了,英伟达正式宣布“拥抱”中国的DeepSeek大模型,在其官网上发布了基于“DeepSeek R1 671B的“NIM微服务”预览版,并且公开宣传“DeepSeek-R1推理能力最领先”。

一、NVIDIA官网介绍DeepSeek的核心内容提炼

1、英伟达肯定了DeepSeek-R是目前开源的最先进的推理能力的开放模型。主要体现在逻辑推理,数学,编码和语言理解的任务重,为用户可提供提供领先的准确性和执行效率效率。

2、今天发布的“预览版”NIM微服务,采用是目前主流的HGX H200系统,每秒可处理高达3872个tokens,邀请AI领域的相关开发者测试调用API,并在未来将纳入AI Enterprise平台。

3、强调了DeepSeek-R1是一个大型的Experts(MOE)模型。它包含了令人惊讶的6710亿参数(比许多其他主流的开源LLMS多10倍)支持了128k个tokens的上下文长度。为了简化用户的部署流程,DeepSeek R1 NIM微服务兼容行业标准API,并作为NVIDIA AI Enterprise软件平台的一部分提供给用户。

4、GPU是目前推理的核心算力芯片,从GPU中获取每秒的每秒浮点操作(FLOP)对于实时推断至关重要。NVIDIA下一代Blackwell架构将在诸如DeepSeek-R1之类的推理模型上进行测试时间扩展,并具有第5代Tenser Core的加持下,可提供多达20个PETAFLOPS的峰值FP4计算性能和72-GPU NVLINK域,专门优化了进行推断。

上面内容来自NVIDIA官网的链接,大家感兴趣可以自行查阅英文原文。

NV的官网链接:

https://blogs.nvidia.com/blog/deepseek-r1-nim-microservice/?ncid=so-infl-633755

二、英伟达“官宣”拥抱DeepSeek的影响和意义

1、打破了国外一众“恶意诋毁”DeepSeek的谣言,通过NV站台进一步提升了DeepSeek在国际上的影响力,另外这波热度英伟达也不想错过,借机推广一下自己的产品和方案,也想在未来DeepSeek的市场里占据主动。

2、对抗传统云服务厂商(比如AWS、微软等)的市场策略,英伟达希望通过本地化的部署(下载NIM微服务的方式)获得更大的AI市场空间,巩固其在AI基础设施领域的地位。

3、通过NVIDIA生态进一步拓展DeepSeek的市场份额,NIM微服务可为开发者提供强大工具,降低开发成本,或重塑AI微服务竞争格局。

三、不仅仅是NVIDIA,微软和亚马逊云服务也纷纷加入

同样就在今天,亚马逊也紧急在Amazon Bedrock和SageMaker AI中,上线了DeepSeek-R1模型。AWS的CEO Matt Garman表示:“DeepSeek R1 是激发业界想象力的最新基础模型。我们一直致力于让新兴和流行的模型很容易立即可供使用,我们现在为客户提供了试用 DeepSeek AI 的诸多途径”

在微软云服务Azure的官方公告上,DeepSeek R1已在 Azure Al Foundry和@GitHub上上线。体验在一个可信、可扩展的AI平台上进行高级推理的强大功能,基础设施投资最小。

随手点赞,年入百万,感谢大家的支持!

以下是广告,算力之光商城,提供主流算力设备方案的供需拉通(可点击)!

IT技术分享-老张
北漂it民工,目标做最接地气的科普类文章!分享IT行业服务器相关的前沿技术、产品和方案,聚焦AI、信创、液冷、智算中心等相关细分领域!入交流群或商合可+vx(zcyaihuai)!
 最新文章