Qwen-2.5 Coder (32B)+ Cursor+ Aider:这个最强开源代码模型击败了 Claude、GPT-4o?

科技   2024-11-12 18:39   湖南  

🍹 Insight Daily 🪺

Aitrainee | 公众号:AI进修生

Hi,这里是Aitrainee,欢迎阅读本期新文章。

一直以来,国外的网友对国内的Qwen系列和DeepSeek系列模型表现出浓厚的兴趣。在YouTube、Reddit、X等平台上,关于Qwen 2.5的讨论频繁可见。

Qwen系列模型之所以这么受欢迎,一个是它们开源,个是它们能足够优秀。

这不,最新的Qwen 2.5 Coder 32b刚刚发布,Reddit上已经有讨论了。

嗯嗯,就在今天,阿里巴巴的Qwen团队发布了他们最强大的编程模型,名为Qwen 2.5 Coder 32B Instruct。这是他们的新旗舰模型,达到了顶级性能,与GPT-4、Claude系列等闭源模型相媲美,甚至在多个基准评测中超越了它们,包括HumanEval、BigCodeBench、Aider等众多基准测试。

我们之前的一篇文章中已经介绍了这个系列模型从0.5B到7B的不同版本,而今天我们要说的是32B版本。

Qwen2.5:13个新模型来袭!开源通用、编码、数学模型全解读,72B超越Llama 405B - 本地安装测试

2024-09-19

与主流开源模型和闭源模型的比较:

这张基准测试表,展示了Qwen 2.5 Coder 32B Instruct在多个评测中的成绩:HumanEval得分92.7,MBPP得分90.2,LiveCodeBench得分31.4,在Aider测试中得分73.7,在Spider得分85.1。这对一个开源模型来说,能够与闭源模型竞争,并且在许多开源模型中表现得更好,真的是非常惊人。

然后是不同尺寸模型的得分情况:


接下来看一下一些实践:

创建一个简单的模拟三体运动的HTML的网页

真的很酷:

创建一个实时天气仪表板,使用JavaScript和Fetch API获取实时天气数据,(给他api)

▲ 来源 | WorldofAI

实现图算法:编写一个Python函数,实现在加权图中查找最短路径的Dijkstra算法。包含一种可视化图形和找到的路径的方法,可以使用Matplotlib或NetworkX等库。

五子棋小游戏

做简历也易如反掌:

表情符号跳舞

更多示例在这里:

https://qwenlm.github.io/blog/qwen2.5-coder-family/


在 Aider 上的表现

Qwen 2.5 Coder 排到了第5,超越Deep Seek

Aider 也更新了他们的基准,新的编码模型Claude 3.5 Haiku 超越了 Deep Seek,而 Deep Seek 的规模比 Qwen 大五倍以上,这也非常惊人。


然后我们说一下实践应用:

Cline老伙伴中使用Qwen2.5 Coder 32B:

更新一下Cline,然后进入设置,选择 OpenAI 兼容的 API,输入你从 Hyperbolic 获得的 API 密钥和模型 ID。设置好后,就可以开始使用了。

Hyperbolic这个平台会提供免费的额,度以前的文章有说过。


Qwen2.5-Coder + Artifacts

>/ 来源:https://mp.weixin.qq.com/s/pmouSwk_k1D2FsVIfC2QzA

在实际应用上,通义千问团队演示了基于Qwen2.5-Coder打造的智能代码助手,并上线了一个Artifacts应用,这种应用我们以前也说过:

Ai-artifacts:免费使用o1模型!还有Claude Artifacts 功能,几秒生成全栈APP(10+编程任务测试)

2024-09-28

Qwen2.5-Coder 遇到Artifacts:prompt编程不是梦

Artifacts 是代码生成的重要应用之一,帮助用户创作一些适合可视化的作品,clone魔搭创空间,即可本地搭建一个Artifacts。
git clone https://www.modelscope.cn/studios/Qwen/Qwen2.5-Coder-Artifacts.git cd Qwen2.5-Coder-Artifactspip install -r requirements.txtpip install gradiopython app.py
    示例视频:


Cursor中使用Qwen2.5-Coder-32B-Instruct

Cursor中使用有两种方式,要么自己本地部署要么使用官方提供的API

本地部署1

你可以直接去ollama官网安装

不过我们前面写过一篇这样的文章:Ollama已支持一键拉取Huggingface上所有GGUF模型:

Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)

2024-10-17

在这篇文章的评论区我说过你也可以使用model scope拉取所有的gguf模型,因为不是所有人都能访问Huggingface

Ollama 拉取 ModelScope任意GGUF模型

ollama run modelscope.cn/Qwen/Qwen2.5-32B-Instruct-GGUF


本地部署2

Vllm加速部署,运行模型比Ollama快

Vllm以前的相关文章:

Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)

2024-10-17

部署 Qwen2.5-Coder-7B-Instruct 你可以直接这样

pip install vllm -Uexport VLLM_USE_MODELSCOPE=Truevllm serve Qwen/Qwen2.5-Coder-7B-Instruct

推理代码:

from openai import OpenAI
# Modify OpenAI's API key and API base to use vLLM's API server.openai_api_key = "EMPTY"openai_api_base = "http://localhost:8000/v1"client = OpenAI( api_key=openai_api_key, base_url=openai_api_base,)completion = client.completions.create(model="Qwen/Qwen2.5-Coder-1.5B-Instruct", prompt="San Francisco is a")print("Completion result:", completion)


官方API、免费的第三方api、本地部署的API

这三个都是openai兼容格式,那就都可以接入到Cursor中,具体如图:

当然你可以结合一下Oneapi,方便管理


Interpreter 中使用

   Interpreter 是什么:

Agent-OS:用AI掌控你的电脑!!这个 AI 代理可以控制你的电脑并做任何事情!(生成应用程序、代码、RAG 等)

2024-08-27

Qwen2.5-Coder 遇到 Interpreter:AI操作电脑(来源:魔搭ModelScope社区 )

在MAC安装环境

pip install open-interpreter

进入Python环境:

from interpreter import interpreterinterpreter.llm.api_base = "YOUR_BASE_URL"interpreter.llm.api_key = "YOUR_API_KEY"interpreter.llm.model = "openai/Qwen-Coder-32B-Instruct"interpreter.chat("Can you set my system to light mode?")

示例视频:

🌟希望这篇文章对你有帮助,感谢阅读!如果你喜欢这系列文章请以 点赞 / 分享 / 在看 的方式告诉我,以便我用来评估创作方向。

👽Submission:kristjahmez06@gmail.com

参考链接:

[1] https://www.youtube.com/watch?v=cF-kgrWxib0

[2] https://mp.weixin.qq.com/s/DgfAHqbaGP3J-ZzcinxjIQ
[3] https://www.youtube.com/watch?v=ALArhCnz8rY
[4] https://mp.weixin.qq.com/s/pmouSwk_k1D2FsVIfC2QzA

知音难求,自我修炼亦艰

抓住前沿技术的机遇,与我们一起成为创新的超级个体

(把握AIGC时代的个人力量)

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

AI进修生
AI算法工程师 / Prompt工程师 / ROS机器人开发者 | 分享AI动态与算法应用资讯,提升技术效率。
 最新文章