你好啊,我是雨飞,见字如面。感谢阅读,期待我们下一次的相遇。
火爆的程度怎么形容呢,昨天还是排名第4的APP,现在一觉醒来,直接超越了ChatGPT成为真正的顶流,登顶IOS榜单。作为一名AI爱好者,这点困难怎么能忍受呢,于是雨飞自己在本地部署了R1的模型去深度体验了下,今天就分享这个详细的教程给大家,使用起来非常方便。这里,我们要用到的是Ollama,一个支持很多大模型本地调用的应用程序。直接点击下方的 Download 进行下载安装即可,安装完成后会发现一个羊驼一样的图标。官方网站:https://ollama.com/ 以Windows电脑为例,安装成功后,在搜索框输入Ollama,可以看到如下图标,则表示安装成功。
接下来就是安装模型,我们如下图所示,点击网页上的 Models 页面,然后点击红框内的 deepseek-r1 进入到模型详情页。在此页面中,我们可以看到 deepseek-r1 模型的详细信息,其中有1.5b、7b、8b、14b、32b、70b以及671b几个尺寸的模型供我们选择。正常来讲8GB内存的笔记本可以运行7b大小的模型。我们直接打开命令行,输入 ollama run deepseek-r1:7b 下载一个7b的模型试下效果。
在命令行中输入 ollama list,可以查看当前机器上存在的模型有哪些。
下载完模型,使用 ollama run deepseek-r1:7b 启动模型。根据电脑性能,大概要几十秒到一分钟多的启动时间。
然后就是正常体验了,可以先让它写个代码看看效果咋样。为了方便对比,我直接使用以前文章里提到的生成HTML的提示词。
输出过程中有明显的<think>标识符,作为提示链的内容,最后会输出相应的代码以及分析内容。下面是实际执行效果,由于我们使用的是7b的模型,从结果来看还是和网页版有所差距。
文字创作。
从整体体验的效果和速度来看,本地执行的7b模型速度还是非常快的,在代码生成方面还是明显弱于网页版模型,而文字创作等方面效果还是比较不错的。
如果你觉得这篇文章对你有启发,欢迎点赞收藏转发下。目前运营了两个Cursor交流群,付费、免费的都有,有想一起交流学习的可以添加下方的微信,邀你一起学习。
加微 1060687688,备注「公众号」,送你一份「AI工具与副业变现指南」
「雨飞同行」这是雨飞的介绍(第8版,交个朋友,限时送福利)