就在刚刚,被一则消息刷屏了,英伟达正式宣布“拥抱”中国的DeepSeek大模型,在其官网上发布了基于“DeepSeek R1 671B”的“NIM微服务”预览版,并且公开宣传“DeepSeek-R1推理能力最领先”。
一、NVIDIA官网介绍DeepSeek的核心内容提炼
1、英伟达肯定了DeepSeek-R是目前开源的最先进的推理能力的开放模型。主要体现在逻辑推理,数学,编码和语言理解的任务重,为用户可提供提供领先的准确性和执行效率效率。
2、今天发布的“预览版”NIM微服务,采用是目前主流的HGX H200系统,每秒可处理高达3872个tokens,邀请AI领域的相关开发者测试调用API,并在未来将纳入AI Enterprise平台。
3、强调了DeepSeek-R1是一个大型的Experts(MOE)模型。它包含了令人惊讶的6710亿参数(比许多其他主流的开源LLMS多10倍)支持了128k个tokens的上下文长度。为了简化用户的部署流程,DeepSeek R1 NIM微服务兼容行业标准API,并作为NVIDIA AI Enterprise软件平台的一部分提供给用户。
4、GPU是目前推理的核心算力芯片,从GPU中获取每秒的每秒浮点操作(FLOP)对于实时推断至关重要。NVIDIA下一代Blackwell架构将在诸如DeepSeek-R1之类的推理模型上进行测试时间扩展,并具有第5代Tenser Core的加持下,可提供多达20个PETAFLOPS的峰值FP4计算性能和72-GPU NVLINK域,专门优化了进行推断。
上面内容来自NVIDIA官网的链接,大家感兴趣可以自行查阅英文原文。
NV的官网链接:
https://blogs.nvidia.com/blog/deepseek-r1-nim-microservice/?ncid=so-infl-633755
二、英伟达“官宣”拥抱DeepSeek的影响和意义
1、打破了国外一众“恶意诋毁”DeepSeek的谣言,通过NV站台进一步提升了DeepSeek在国际上的影响力,另外这波热度英伟达也不想错过,借机推广一下自己的产品和方案,也想在未来DeepSeek的市场里占据主动。
2、对抗传统云服务厂商(比如AWS、微软等)的市场策略,英伟达希望通过本地化的部署(下载NIM微服务的方式)获得更大的AI市场空间,巩固其在AI基础设施领域的地位。
3、通过NVIDIA生态进一步拓展DeepSeek的市场份额,NIM微服务可为开发者提供强大工具,降低开发成本,或重塑AI微服务竞争格局。
三、不仅仅是NVIDIA,微软和亚马逊云服务也纷纷加入
同样就在今天,亚马逊也紧急在Amazon Bedrock和SageMaker AI中,上线了DeepSeek-R1模型。AWS的CEO Matt Garman表示:“DeepSeek R1 是激发业界想象力的最新基础模型。我们一直致力于让新兴和流行的模型很容易立即可供使用,我们现在为客户提供了试用 DeepSeek AI 的诸多途径”
在微软云服务Azure的官方公告上,DeepSeek R1已在 Azure Al Foundry和@GitHub上上线。体验在一个可信、可扩展的AI平台上进行高级推理的强大功能,基础设施投资最小。
随手点赞,年入百万,感谢大家的支持!
以下是广告,算力之光商城,提供主流算力设备方案的供需拉通(可点击)!