DeepSeek-R1个人和企业本地快速部署手册(可商用)

2025-02-05 17:48   河北  

关注真聊技术,我们一起探究AI奥秘!


DeepSeek-R1已经发布超过一周,我也第一时间发布了关于基于vLLM部署DeepSeek-R1以及DeepSeek-R1-Distill-Qwen-32B的相关文章。我的文章主要介绍了在构建企业RAG系统时,如何将DeepSeek-R1作为大模型模块进行部署,企业在业务发展中使用这一方案完全足够。

然而,我发现将AI集成到个人设备、甚至口袋的需求正在迅速增长。因此,除了编写DeepSeek-R1操作手册外,这几天我还深入探索了不同参数模型的部署方式,总结出一套适合个人与企业同时使用的部署方案。

关于基于DeepSeek-R1蒸馏的六款子模型是否适合个人部署,我特别关注了其中一些模型文件非常庞大的版本,比如DeepSeek-R1-Distill-Qwen-32B和DeepSeek-R1-Distill-Llama-70B。为此,我专门向DeepSeek进行了咨询。

我的提问是:
个人部署DeepSeek-R1-Distill-Qwen-32B合适吗?如果你觉得合适,你能给出一个特别特别的原因吗?使用大白话回答
DeepSeek的回答:
合适! 但有个特别特别简单的原因:这模型是个“学霸精简版”——就像你让一个考满分的学霸把课本重点全总结成小抄,虽然它脑子还是很大(32B参数),但运行起来比原版省劲,适合个人用电脑硬刚,勉强能跑起来!(当然,显卡最好是3090/4090级别,否则还是卡成PPT)
行吧,那我们今天就来讲讲个人部署DeepSeek-R1蒸馏模型的操作方法。
了解模型的大小
DeepSeek-R1模型参数:671B(6710亿),模型大小:约720G。
DeepSeek-R1-Distill-Qwen-1.5B模型参数1.5B(15亿),模型大小:约4G
DeepSeek-R1-Distill-Qwen-7B模型参数7B (70亿),模型大小:约15G
DeepSeek-R1-Distill-Llama-8B模型参数8B(80亿),模型大小:约16G
DeepSeek-R1-Distill-Qwen-14B模型参数14B(140亿),模型大小:约30G
DeepSeek-R1-Distill-Qwen-32B模型参数32B(320亿),模型大小:约75G
DeepSeek-R1-Distill-Llama-70B模型参数70B(70亿),模型大小:约140G
这些模型的原始大小如上所示,其中DeepSeek-R1和DeepSeek-R1-Distill-Llama-70B显然不适合在个人电脑上部署,而其余五个模型则完全可以在个人电脑上进行部署。
模型运行框架的选择

目前市面上有许多开源模型框架可供选择,但大多数框架主要面向企业级部署,通常通过各种模型加速技术提升性能。

DeepSeek-R1官方推荐的几款框架包括:vLLM、SGLang、TensorRT-LLM等。

那么,是否有适合个人部署的框架呢?

Ollama是一个开源框架,专为简化在本地机器上部署和运行大型语言模型(LLM)而设计。

特点如下:

易于使用:提供简洁的命令行界面和类似OpenAI的API,便于用户轻松管理和运行大型语言模型。

跨平台支持:支持MacOS、Linux和Windows(预览版)系统,并提供Docker镜像,方便在不同环境下部署。

模型管理:支持多种大型语言模型,如Llama、Mistral等,用户可从模型仓库下载或自行导入模型。

资源高效:优化资源占用,支持GPU加速,提升模型运行效率。

可扩展性:支持同时加载多个模型和处理多个请求,可与Web界面结合使用,方便构建应用程序。

Ollama的另一个显著优势是,它原生支持DeepSeek-R1的所有模型。同时,Ollama通过量化技术和剪枝技术对DeepSeek-R1的模型进行了优化,显著减小了模型的体积,从而更加适合个人部署使用。
采用Ollama实现个人部署
Winsows环境部署
1、Ollama的下载与安装
地址:https://ollama.com/download
选择与自己操作系统兼容的Ollama应用进行安装,具体的安装步骤这里不再赘述。不过,需要注意的是,Ollama的安装盘最好有50GB以上的可用空间。
2、DeepSeek-R1模型的选择
地址:https://ollama.com/
在官网主页可以看到DeepSeek-R1在醒目的位置,点击后就进入下载页面。
在左侧的下拉列表中,可以选择不同参数的模型,并查看每个模型的大小,这些大小都是经过优化后的。例如:32B模型的大小为20GB。个人用户可以根据自己电脑的配置选择合适的模型进行部署。选择好模型后,点击右侧的“复制”按钮,即可复制下载模型和运行模型的命令。
例如:选择7B模型,命令如下
ollama run deepseek-r1:7b
3、下载模型并运行
搜索框中输入:cmd,打开命令提示符窗口,输入刚才拷贝的命令。
模型下载完并运行后,就可以进行对话。
使用Ollama部署时,32B模型使用3090、4090的卡都可以顺利完成部署。
Linux环境部署
1、Ollama的下载与安装
地址:https://ollama.com/download/linux
点击复制命令,到linux界面执行,安装Ollama。
安装完毕后,执行以下命令:可以看到ollama的启动日志。
ollama serve
2、DeepSeek-R1模型的选择
参考Windows环境部署中的模型选择,选择一个大模型,这里我们32B为例,32B后复制命令。
3、下载模型并运行
执行以下命令:模型下载并运行。
ollama run deepseek-r1:32b
注:我这里已经下载安装过,所以执行命令后,直接就进入了聊天界面。
我让它用李白的诗体为2025年除夕写一首诗,它经过思考,写了一首7言绝句,你觉得怎么样?

爆竹声中辞旧岁,

团圆饭后话桑麻。

春风拂面千家乐,

明月高悬照万家。

使用Open WebUI提升对话体验
1、Open WebUI的下载与安装
地址:https://github.com/open-webui/open-webui
找到“If Ollama is on your computer, use this command:”提示语,并复制命令。
注:我们采用Docker环境部署,环境请自行安装。
将复制的命令,在一个新的命令提示符窗口下打开。
安装完成后可以在Docker列表中看到Open WebUI的条目。
2、Open WebUI+DeepSeek-R1
Open WebUI地址:http://localhost:3000
拷贝地址在浏览器中打开,或是点击Docker Open WebUI条目中红框圈住的部分。
打开后的Open WebUI界面如下:
点击“开始使用”,完成管理员账号的创建,就可以进入聊天界面。
我让它谈以下对李白的看法,它思考一会,写了大概有1000多字,看来它十分喜欢李白,最后对李白的评价也是相当的好。
个人部署DeepSeek-R1总结

个人在本地部署时,可以根据自己的电脑配置选择不同参数的模型。如果你的电脑配有GPU显卡,且显存约为22GB,可以选择32B模型。该模型在各项指标上可与ChatGPT-o1-mini相媲美,具备完整的思考与推理过程,除了性能与DeepSeek官网差一些,其它体验相差无几。

如果你有阿里云、百度云等提供GPU的云服务器,也可以选择在云端部署大型模型,并在个人电脑上安装Open WebUI配置云端模型,这样的使用体验将是最佳的,同时还能确保个人信息安全。

采用vLLM实现企业部署
DeepSeek-R1的企业部署将在节后迎来高峰期,许多企业已经开始积极筹备。如果企业计划在节后更换现有的大模型部署,DeepSeek-R1是一个值得参考的选择。
具体部署可以参考我之前写的部署文章:
构建企业私有RAG大模型: DeepSeek-R1干翻OpenAI-o1-mini,开源部署走起(可商用)
构建企业私有RAG大模型: (可商用)DeepSeek-V3开源部署,真的强吗?
企业可以根据自身业务需求和成本考虑部署不同参数的DeepSeek-R1模型。通常,企业都会拥有自己的用户交互系统。DeepSeek-R1的不同模型启动后,会自动启用支持OpenAI协议的接口,企业可以直接通过标准的OpenAI API方式进行接入。
执行以下命令:可以看到调用效果。
curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{    "model""deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",    "messages": [        {"role""system""content""You are DeepSeek-R1-7B. You are a helpful assistant."},        {"role""user""content""请介绍一下你自己"}    ],    "temperature": 0.6,    "top_p": 0.8,    "repetition_penalty": 1.05,    "max_tokens": 512}'
模型回答:
{	"id""chatcmpl-711471f00c9c40f6b4cdd66a9995d843",	"object""chat.completion",	"created"1738595207,	"model""deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",	"choices": [{		"index"0,		"message": {			"role""assistant",			"reasoning_content"null,			"content""<think>\n您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1-7B。如您有任何任何问题,我会尽我所能为您提供帮助。\n</think>\n\n您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1-7B。如您有任何任何问题,我会尽我所能为您提供帮助。",			"tool_calls": []		},		"logprobs"null,		"finish_reason""stop",		"stop_reason"null	}],	"usage": {		"prompt_tokens"22,		"total_tokens"103,		"completion_tokens"81,		"prompt_tokens_details"null	},	"prompt_logprobs"null}
写在最后

DeepSeek-R1已经将AI大模型带入了寻常百姓家,为AI的普及做出了巨大贡献。最后,我用DeepSeek-R1创作的一首诗来结束今天的分享。

我的提示词:

请你用DeepSeek-R1已经让AI大模型进入寻常百姓家为背景,仿刘禹锡的诗体,写一首属于你的诗句。

《智咏》

——DeepSeek-R1智启万门

寻常巷陌无寒暑,
一屏尽览古今情。
莫道云端高难问,
智能入世万象新。
千帆竞发星河渡,
万户轻吟数据鸣。
且看AI春风里,
笑与人间共潮生。

注:笔者以刘禹锡"沉舟侧畔千帆过"的变革视角切入,用"巷陌无寒暑"喻指AI普惠带来的生活质变,"云端高难问"化用"白云在青天"的古典意象,转以"数据鸣"赋予科技人文温度。末句"共潮生"既呼应刘禹锡"潮打空城寂寞回"的时空哲思,更展现智能时代人机共生的新境界。

声明:本文为 真聊技术 原创,转载请联系授权。



看完本文有收获?请转发分享给更多人

关注「真聊技术」,提升综合技能



真聊技术

Base在AIGC应用、RAG、模型训练、LLM微调、微服务、领域驱动设计。



分享、点赞和在看就是最大的支持❤️

IT技术分享-老张
北漂it民工,目标做最接地气的科普类文章!分享IT行业服务器相关的前沿技术、产品和方案,聚焦AI、信创、液冷、智算中心等相关细分领域!入交流群或商合可+vx(zcyaihuai)!
 最新文章