基本上mac mini 跑这个7B系列的模型效果速度都还可以,你本地学习的时候需要频繁调用一些外部接口的话直接使用它就0K了,一般上的对话响应基本是准实时的,响应速度还算得上杠杠的。下面是我通过langchain的代码调用,可以看到在处理语义理解摘要的时候,它的处理也很快,基本在2秒以内就可以返回,基本上你使用云服务厂商的同等规模参数的模型的响应也就这么快。如果一直使用循环的方式不断地请求进行推理的话,Mac mini会有发热的现象,但是不是烫手的那种,冬天摸上去就是有点暖和,同时如果你把耳朵靠近它的底盘散热处,能听到小风扇在转。总体来说还是非常不错的,3000块钱(加上京东的政府补贴)的成本跑一个本地的7b模型,这种性价比哪里找?哈哈哈参考链接:https://ollama.com/https://qwen.readthedocs.io/zh-cn/latest/run_locally/ollama.html