Qwen 2.5 开源,API 打一折

2024-09-19 02:00   广东  

长话短说


就在刚刚,Qwen 开源了其最新版本模型 Qwen2.5 全家桶:

  • Qwen2.5: 0.5B、1.5B、3B、7B、14B、32B 和 72B

  • Qwen2.5-Coder:1.5B、7B 和 32B(即将发布)

  • Qwen2.5-Math:1.5B、7B 和 72B。


Qwen API 大降价,低至 1 折(Qwen Turbo 的输出)



进一步的

在线体验

https://huggingface.co/spaces/Qwen/Qwen2.5


相关报告

https://qwenlm.github.io/zh/blog/qwen2.5/


开源协议

除 3B 和 72B 外,均通过 Apache 2.0 协议进行开源





API 大幅降价

Qwen-VL-Max(对比 Qwen-Max)

原价格(每千 token)

输入 0.04 元,输出 0.12 元

现价格(每千 token)

输入 0.02 元,输出 0.02 元


Qwen-Plus

原价格(每千 token)

输入 0.004 元,输出 0.012 元

现价格(每千 token)

输入 0.0008 元,输出 0.002 元


Qwen-Turbo

原价格(每千 token)

输入 0.002 元,输出 0.006 元

现价格(每千 token)

输入 0.0003 元,输出 0.0006 元


性能大为提升(来自官方)


Qwen2.5

开源模型中,最大杯的 Qwen2.5-72B,在参数中超过众多开源模型

在 API 中,从参数上看,Qwen-Plus 显著优于 DeepSeek-V2.5,并且在与 Llama-3.1-405B 的竞争中表现出了竞争力,尽管在某些方面仍不及 GPT4-o 和 Claude-3.5-Sonnet。

对于开源的 Qwen2.5-14B 和 Qwen2.5-32B,在同等量级的模型中,颇具竞争力,如 Phi-3.5-MoE-Instruct 和 Gemma2-27B-IT。

基于 API 的 Qwen2.5-Turbo 的性能极具竞争力,同时提供了成本效益高且快速的服务。

对于小模型  Qwen2.5-3B,仅凭约 3B 参数便实现了 Llama-3 8B 的性能。


Qwen2.5-Coder

Qwen2.5-Coder 是为编程特别设计的模型,基准测试数据如下:

Qwen2.5-Coder: Base Models

Qwen2.5-Coder 最多 128K tokens 上下文,支持 92 种编程语言。

本次开源的 7B 版本 Qwen2.5-Coder,甚至打败了更大尺寸的 DeepSeek-Coder-V2-Lite 和 Codestral-20B,成为当前最强大的基础代码模型之一。

Qwen2.5-Coder-Instruct

Qwen2.5-Coder-Instruct 是 Qwen2.5-Coder 的指令微调版,在更多的评估中体现出了卓越的泛化性。

特别的,Qwen2.5-Coder-Instruct 在几个方面表现非常突出:

  1. 多语言编程能力很强

  1. 代码推理能力出色

3. 数学能力和基础能力都很强


Qwen2.5-Math

比以往模型,Qwen2.5-Math 在更大规模的数学相关数据上进行了预训练,包括由 Qwen2-Math 生成的合成数据。此外,这一次我们增加了对中文的支持,并通过赋予其进行 CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)的能力来加强其推理能力。

Qwen2.5-Math-72B-Instruct 的整体性能超越了 Qwen2-Math-72B-Instruct 和 GPT4-o,甚至是非常小的专业模型如 Qwen2.5-Math-1.5B-Instruct 也能在与大型语言模型的竞争中取得高度竞争力的表现。

赛博禅心
拜AI古佛,修赛博禅心
 最新文章