谈点关于本地部署 DeepSeek 的真相

文摘   科技   2025-02-03 21:30   山东  


点击上方🔺公众号🔺关注我✅

你好啊,我是雨飞,见字如面感谢阅读,期待我们下一次的相遇。

很多群友反馈,虽然自己本地部署了 DeepSeek R1 的模型,但是效果始终比不上网页版。

其实道理很简单,我们本地部署的大多数 7b、8b或者14b这种蒸馏得到的小模型,根本不是原版的 671b 的R1模型,因此性能肯定是比不上官方网页上的模型

根据雨飞实际体验,要想在本地使用的效果还算ok,基本上是需要部署32b的模型。而这个模型,在我i7处理器,32GB内存的机器上勉强可以跑的动,但是输出文字特别慢,下面是我实际录制的视频,这个视频,我没有加速,回答一个问题要4分多钟,嫌麻烦的直接跳过就行,不嫌麻烦的可以看下回答速度。

当然,这并不意味着 7b、14b的模型就不能用了,在不同场景下,R1模型的表现也有所不同。如果大家硬件条件满足,建议优先考虑 14b 这个级别,基本上性能和速度都可以较好的平衡。如果满足不了,就不用太折腾了,还是使用下官方的服务,应该这几天就会变好了。

如果你觉得这篇文章对你有启发,欢迎点赞收藏转发下。目前运营了一个DeepSeek的交流群,有想一起学习的可以添加下方的微信,邀你一起学习。


❤️常驻小尾巴❤️

加微 1060687688,备注「公众号」,送你一份「AI工具与副业变现指南


推荐阅读

「雨飞同行」这是雨飞的介绍(第8版,交个朋友,限时送福利)

雨飞AI笔记
个人V:1060687688,添加后,发送暗号“777”送你一份副业与AI相关的见面礼。 雨飞个人号,AI算法从业者,在职场搞副业,探索一人企业。在AI时代,持续分享自己在学习、副业路上的所见、所思,记录雨飞个人IP打造中的心路历程。
 最新文章