🍹 Insight Daily 🪺
Aitrainee | 公众号:AI进修生
Hi,这里是Aitrainee,欢迎阅读本期新文章。
一直以来,国外的网友对国内的Qwen系列和DeepSeek系列模型表现出浓厚的兴趣。在YouTube、Reddit、X等平台上,关于Qwen 2.5的讨论频繁可见。
Qwen系列模型之所以这么受欢迎,一个是它们开源,一个是它们性能足够优秀。
这不,最新的Qwen 2.5 Coder 32b刚刚发布,Reddit上已经有讨论了。
嗯嗯,就在今天,阿里巴巴的Qwen团队发布了他们最强大的编程模型,名为Qwen 2.5 Coder 32B Instruct。这是他们的新旗舰模型,达到了顶级性能,与GPT-4、Claude系列等闭源模型相媲美,甚至在多个基准评测中超越了它们,包括HumanEval、BigCodeBench、Aider等众多基准测试。
我们之前的一篇文章中已经介绍了这个系列模型从0.5B到7B的不同版本,而今天我们要说的是32B版本。
与主流开源模型和闭源模型的比较:
这张基准测试表,展示了Qwen 2.5 Coder 32B Instruct在多个评测中的成绩:HumanEval得分92.7,MBPP得分90.2,LiveCodeBench得分31.4,在Aider测试中得分73.7,在Spider得分85.1。这对一个开源模型来说,能够与闭源模型竞争,并且在许多开源模型中表现得更好,真的是非常惊人。
然后是不同尺寸模型的得分情况:
接下来看一下一些实践:
创建一个简单的模拟三体运动的HTML的网页
真的很酷:
创建一个实时天气仪表板,使用JavaScript和Fetch API获取实时天气数据,(给他api)
▲ 来源 | WorldofAI
实现图算法:编写一个Python函数,实现在加权图中查找最短路径的Dijkstra算法。包含一种可视化图形和找到的路径的方法,可以使用Matplotlib或NetworkX等库。
做简历也易如反掌:
表情符号跳舞
更多示例在这里:
https://qwenlm.github.io/blog/qwen2.5-coder-family/
在 Aider 上的表现
Qwen 2.5 Coder 排到了第5,超越Deep Seek
Aider 也更新了他们的基准,新的编码模型Claude 3.5 Haiku 超越了 Deep Seek,而 Deep Seek 的规模比 Qwen 大五倍以上,这也非常惊人。
然后我们说一下实践应用:
Cline老伙伴中使用Qwen2.5 Coder 32B:
更新一下Cline,然后进入设置,选择 OpenAI 兼容的 API,输入你从 Hyperbolic 获得的 API 密钥和模型 ID。设置好后,就可以开始使用了。
Hyperbolic这个平台会提供免费的额,度以前的文章有说过。
Qwen2.5-Coder + Artifacts
>/ 来源:https://mp.weixin.qq.com/s/pmouSwk_k1D2FsVIfC2QzA
在实际应用上,通义千问团队演示了基于Qwen2.5-Coder打造的智能代码助手,并上线了一个Artifacts应用,这种应用我们以前也说过:
2024-09-28
Qwen2.5-Coder 遇到Artifacts:prompt编程不是梦
git clone https://www.modelscope.cn/studios/Qwen/Qwen2.5-Coder-Artifacts.git cd Qwen2.5-Coder-Artifacts
pip install -r requirements.txt
pip install gradio
python app.py
Cursor中使用Qwen2.5-Coder-32B-Instruct
Cursor中使用有两种方式,要么自己本地部署要么使用官方提供的API
本地部署1
你可以直接去ollama官网安装
不过我们前面写过一篇这样的文章:Ollama已支持一键拉取Huggingface上所有GGUF模型:
2024-10-17
在这篇文章的评论区我说过你也可以使用model scope拉取所有的gguf模型,因为不是所有人都能访问Huggingface
Ollama 拉取 ModelScope任意GGUF模型
ollama run modelscope.cn/Qwen/Qwen2.5-32B-Instruct-GGUF
本地部署2
Vllm加速部署,运行模型比Ollama快
Vllm以前的相关文章:
2024-10-17
部署 Qwen2.5-Coder-7B-Instruct 你可以直接这样
pip install vllm -U
export VLLM_USE_MODELSCOPE=True
vllm serve Qwen/Qwen2.5-Coder-7B-Instruct
推理代码:
from openai import OpenAI
# Modify OpenAI's API key and API base to use vLLM's API server.
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"
client = OpenAI(
api_key=openai_api_key,
base_url=openai_api_base,
)
completion = client.completions.create(model="Qwen/Qwen2.5-Coder-1.5B-Instruct",
prompt="San Francisco is a")
print("Completion result:", completion)
官方API、免费的第三方api、本地部署的API
这三个都是openai兼容格式,那就都可以接入到Cursor中,具体如图:
当然你可以结合一下Oneapi,方便管理
Interpreter 中使用
Interpreter 是什么:
2024-08-27
Qwen2.5-Coder 遇到 Interpreter:AI操作电脑(来源:魔搭ModelScope社区 )
在MAC安装环境
pip install open-interpreter
进入Python环境:
from interpreter import interpreter
interpreter.llm.api_base = "YOUR_BASE_URL"
interpreter.llm.api_key = "YOUR_API_KEY"
interpreter.llm.model = "openai/Qwen-Coder-32B-Instruct"
interpreter.chat("Can you set my system to light mode?")
示例视频:
🌟希望这篇文章对你有帮助,感谢阅读!如果你喜欢这系列文章请以 点赞 / 分享 / 在看 的方式告诉我,以便我用来评估创作方向。
参考链接:
[1] https://www.youtube.com/watch?v=cF-kgrWxib0
[3] https://www.youtube.com/watch?v=ALArhCnz8rY
[4] https://mp.weixin.qq.com/s/pmouSwk_k1D2FsVIfC2QzA
知音难求,自我修炼亦艰
抓住前沿技术的机遇,与我们一起成为创新的超级个体
(把握AIGC时代的个人力量)
点这里👇关注我,记得标星哦~