震惊!美国两大巨头宣布和DeepSeek合作

文摘   2025-02-01 07:01   日本  

点击蓝字 关注我们

DeepSeek引起全球震惊,从刚开始的热议到接下来的质疑,随后要开始紧密调查,声称采取限制措施,事情的变化实在太快了。

不过有两家厂商已经对DeepSeek表示认可,接下来双方要携手合作,一起开拓更先进的人工智能。

英伟达采用DeepSeek

英伟达宣布已在网站上发布了采用DeepSeek R1 671b的英伟达NIM微服务预览版,公开表示DeepSeek-R1推理能力最先进。

英伟达表示DeepSeek R1 NIM微服务,在单个英伟达HGX H200系统上每秒可处理多达3872个tokens。

英伟达告诉开发者们现在可以对API进行测试和实验。

英伟达AI Enterprise软件平台不久将纳入相关API,正式以可下载的NIM微服务的形式推出。

英伟达通过采用DeepSeek,让NIM微服务将硬件优势转化为AI服务能力,是英伟达在企业级AI市场的重要布局。

不仅加速了高性能模型的商业化,也可能重塑AI供应链格局,推动行业从基础设施层竞争转向应用生态层整合。

开发者与企业应关注NIM的演进,评估能否成为降低AI部署复杂性的关键杠杆。

微软将采用DeepSeek

微软宣布将R1的精简版本引入Copilot+PC。

将DeepSeek先进的AI技术集成到个人电脑。

将首先提供给搭载骁龙X芯片的设备、搭载英特尔酷睿Ultra 200V处理器的设备,然后是搭载AMD Ryzen AI9的PC。

首席执行官纳德拉认为,DeepSeek会对美国人工智能产业有所帮助,而不是伤害。

DeepSeek的努力将会商品化,并广泛应用于整个AI平台。

他把数据存储从服务器转移到云端进行了类比。

虽然这不是一回事,但更多的人仅仅基于价格就转向了云存储。

当代币价格下跌时,推理计算价格也会下跌,这意味着人们可以消费更多,也会有更多的应用程序被编写出来。

很难想象,我们现在正处于2025年代初,在PC上可以运行需要相当庞大的云基础设施的模型。

这种优化意味着人工智能将更加普及,因此,对于我们来说,都是好消息。

第一个模型将是DeepSeek-R1-Distill-Qwen-1.5B(即15亿参数模型),更大、更强大的7B和14B模型即将推出。

这些模型将可从微软的AI工具包中下载。

微软调整了这些模型,在搭载NPU的设备上运行。

严重依赖内存访问的操作在CPU上运行,而计算密集型操作在NPU上运行。

通过优化,微软成功实现了快速的第一个词元时间(130毫秒)和短提示(少于64个令牌)每秒16个词元的吞吐率。

微软是OpenAI(ChatGPT和GPT-4o)的坚定支持者,并有着深度投资,但似乎并不偏袒。

Azure Playground有GPT模型(OpenAI)、Llama(Meta)、Mistral,现在还有DeepSeek。




芯调查
关注全球芯片动态
 最新文章