你好啊,我是雨飞,见字如面。感谢阅读,期待我们下一次的相遇。
有的时候,我们在ollama pull 拉取模型时,很长时间都拉取不下来,这是由于ollama拉取模型的网址并不在国内,网速就比较慢。这个时候,可以考虑自己先本地把模型下载下来,再进行加载。另外网速问题,还可以开启VPN 挂 Tun 模式,这种我们就不细说了。
ollama 提供了可以在本地加载模型的方案,就是使用一个配置文件的方法。这样,我们可以使用阿里的modelscope 去下载模型,由于 modelscope 是国内的网站,下载速度是杠杠的,一点也不用担心下载慢的问题。
下面,以DeepSeek-R1 7b 模型为例,给大家介绍下如何下载这款模型。具体的网站和截图,我放在下面了,打开后会出现如下图所示的界面。
网站:
https://modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF
然后,在模型文件处,点击下载模型,就可以根据提示把模型下载到本地。当然,你也可以只点击每个模型的下载按钮,这样就只下载指定的模型,更节省时间。这里,模型越大,效果就越好,我们可以根据实际选择自己需要的模型。
下载完成后,需要启动 ollama,然后我们可以使用下面的命令去查看一个已经存在的模型镜像文件,以便后续的复制粘贴操作。
ollama show deepseek-r1:7b --modelfile
然后参考已经存在的镜像文件,去编写自己的镜像文件,只需要将下面 From 所在行的路径替换成自己的本地路径就可以,其他的地方可以不需要修改。
# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM with:
# FROM deepseek-r1:7b
FROM D:\models\blobs\sha256-96c415656d377afbff962f6cdb2394ab092ccbcbaab4b82525bc4ca800fe8a49
TEMPLATE """{{- if .System }}{{ .System }}{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1}}
{{- if eq .Role "user" }}<|User|>{{ .Content }}
{{- else if eq .Role "assistant" }}<|Assistant|>{{ .Content }}{{- if not $last }}<|end▁of▁sentence|>{{- end }}
{{- end }}
{{- if and $last (ne .Role "assistant") }}<|Assistant|>{{- end }}
{{- end }}"""
PARAMETER stop <|begin▁of▁sentence|>
PARAMETER stop <|end▁of▁sentence|>
PARAMETER stop <|User|>
PARAMETER stop <|Assistant|>
镜像文件的详细解释,可以看下面链接:https://github.com/ollama/ollama/blob/main/docs/modelfile.md
镜像制作完成后,就可以使用下面的命令去创建模型,记得需要替换成指定自己镜像文件的地址。
ollama create deepseek-r1-7b -f deepseek-r1-7b.mf
在命令行执行下面命令,调用模型。
ollama run deepseek-r1-7b:latest
如果你觉得这篇文章对你有启发,欢迎点赞收藏转发下。最近搞了个DeepSeek交流群,感兴趣加我微信备注「ds」,邀你进群一起探讨,顺便送你一份变现指南。
❤️常驻小尾巴❤️
加微 1060687688,备注「公众号」,送你一份「AI工具与副业变现指南」