上个月,阿里开源了通义千问新一代开源模型 Qwen 2.5,再登全球开源大模型王座!在最新大模型盲测榜单(基准测试平台Chatbot Arena)中,新发布的 Qwen2.5 开源模型再次闯入全球十强。其大语言模型 Qwen2.5-72B-Instruct 排名大语言模型榜单第十,居于闭源 OpenAI 的 o1、GPT-4o 等模型之后,是前十唯一的中国大模型。并且其性能超越 Meta 公司的开源模型 Llama 405B。开源地址:https://github.com/QwenLM/Qwen2.5
① 全系列涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型。在模型推理能力和复杂指令理解能力显著增强,困难任务和代码上的表现更优② 在指令跟踪、生成长文本、理解结构化数据(例如表格)以及生成结构化输出(尤其是 JSON)方面有显著改进。③ 文本分类、信息抽取、情感分析、润色纠错等文本处理任务更稳健④上下文长度最多支持 128 K个token,最多可以生成 8K 个 token。⑤ 支持超过29种语言,包括中文、英语、日语、韩语等等。模型中英文综合能力显著提升Qwen2.5 全系列涵盖多个尺寸的大语言模型、总计上架100多个模型,刷新业界纪录。① 语言模型:Qwen2.5系列开源了七个不同尺寸的语言模型,从0.5B 到 72B,覆盖了从端侧设备到工业级场景的多种需求。这些模型在各自的赛道上均实现了 SOTA(State-of-the-Art)成绩,满足了开发者在模型能力和成本之间的平衡需求。例如,3B 模型适用于手机等端侧设备,32B 模型被誉为“性价比之王”,而 72B 模型则是工业级和科研级场景的性能王者。② 多模态模型:Qwen2-VL-72B 是备受期待的大规模视觉语言模型,现已正式开源。该模型能够识别不同分辨率和长宽比的图片,理解超过 20 分钟的长视频,并具备调节手机和设备的视觉智能体能力,其视觉理解能力超越了 GPT-4o 水平。此外,Qwen2-Audio 大规模音频语言模型也开源了,支持多达 8 种语言和方言,能够进行语音聊天和音频信息分析,在全球权威测评中表现领先。③ 垂直领域模型:Qwen2.5系列还包括用于编程的 Qwen2.5-Coder 和用于数学的Qwen2.5-Math,Qwen2.5-Math 是目前最先进的开源数学模型系列,旗舰模型Qwen2-Math-72B-Instruct 在数学相关任务中表现优于 GPT-4o 和 Claude 3.5。Qwen2.5-Coder 则在 5.5T tokens 的编程数据上进行了训练,开源了 1.5B 和 7B 版本,未来还将开源 32B 版本。此外,通义千问旗舰模型 Qwen-Max 也实现了全面升级,在多个权威基准上接近甚至赶超 GPT-4o。可以使用 Ollama 这个本地部署和运行大模型的工具,来在你的电脑本地上运行 Qwen 2.5 大模型。
① 官网搜索 Ollama ,然后下载对应你操作系统的版本。我拿 MacOS 举例。
② 安装后运行 Ollama,点击 install 即可
③ 去打开你的终端 terminal ,输入如下命令,就可以下载并部署大模型了上述 qwen2.5:72b 是模型的尺寸和型号,你可以根据自己情况来选择合适的模型。比如你想借助 AI 来辅助编程,不想花钱购买 ChatGPT ,可以本地部署一个 qwen2.5-coder,体验嘎嘎好。体积小,但是表现超越众多大语言模型。通义千问开源模型累计下载量已经突破 4000 万,通义原生模型和衍生模型总数超过 7.43 万个,成为世界最大的生成式语言模型族群。
不行本地折腾下载部署,也可登录通义千问官网 https://tongyi.aliyun.com/qianwen/ 体验。