CAMEL集成通义千问Qwen系列模型-语言模型界的“多面手”

文摘   2024-11-25 19:15   英国  

在人工智能飞速发展的时代,跨平台合作正逐渐成为推动创新的核心力量。近日,CAMEL AI近期宣布正式引入阿里云开发的通义千问系列模型,这一合作大幅提升了CAMEL平台在多语言模型方面的支持水平,为用户在内容生成、自动化客服、数据分析等领域带来更多灵活、精准的选择,充分满足了不同行业的多样化需求。

关于通义千问Qwen

“通义千问,让智能触手可及”

通义千问(Qwen)是由阿里云自主研发的大规模语言模型系列,旨在理解和分析用户输入的自然语言,为不同领域和任务提供服务和帮助。最新发布包括了语言模型 Qwen2.5,以及专门针对编程的 Qwen2.5-Coder 和数学的 Qwen2.5-Math 模型。

通义千问(Qwen)具有以下特点:

  1. 多场景适应:支持多种应用场景,如文本生成、代码生成、对话互动等,满足广泛业务需求。

  2. 大规模参数:提供多种规模(0.5B1.5B3B7B14B32B以及72B)的模型,适应不同复杂度的任务。

  3. 开源灵活:开放基础(Base)和指令(Instruct)模型,开发者可在Base模型上进行定制和优化。

  4. 高效对齐:Instruct模型经过对齐优化,能理解指令,支持人性化的交互体验。最新的模型在多个方面取得了显著提升,包括指令执行、超长文本生成(超过8K标记)、结构化数据理解(如表格)以及生成结构化输出(特别是JSON格式)。Qwen 2.5 模型在适应各类系统提示上表现更加出色,同时进一步强化了角色扮演能力和聊天机器人的条件设定功能。

  5. 强大的多语言支持:通义千问具备多语言处理能力,支持包括中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文、韩文、越南文、泰文、阿拉伯文等 29 种以上语言,适合全球化的应用场景。

  6. 拓展性强:基于扩展法则的设计,为模型性能的线性提升提供理论基础,满足持续扩展需求。

想象一下,一个AI模型像电影中的“千里眼”,不仅懂你的话,还能帮你搞定工作、解决疑惑,甚至给你创作灵感。这就是阿里巴巴推出的通义千问(Qwen)系列,理解自然语言的AI“高手”,支持超多语言。

这个系列不仅有基础版,还推出了对话版,能像朋友一样和你聊天,还支持代码生成,能帮程序员生成代码,是一个优秀的“AI代码助手”。
阿里云将这些模型的代码开源出来,让开发者能自由探索。这下,千问不只是千里眼,还是千手千眼的“多面AI”,让你在阿里的模型体验中心能体验它在文本生成、翻译、模拟对话等各种场景下的魔力!


关于CAMEL AI

"Finding the Scalling Law of Agents"

CAMEL AI (https://www.camel-ai.org) 是一个致力于构建基于大语言模型(LLMs)的多智能体系统的开源平台,旨在推动人工智能的发展。就像AI领域的“沙漠之舟”,CAMEL不仅在信息的广袤领域里稳步前行,更为实现AGI探索出一条前沿之路。CAMEL框架是最早基于ChatGPT的autonomous agents的知名项目,已被NeurlPS 2023录用。

CAMEL AI框架设计上极具灵活性与模块化,包含多种智能体实现、专业领域提示示例以及AI数据探索功能等模块,适应各种高效决策与复杂数据处理需求。通过协作运作的智能体队列,CAMEL AI不仅在金融、零售、医疗等领域展示出强大的适用性和创新性,还大大提升了自适应能力。这一系统将单一智能体的职能拓展至多智能体协作,成为真正的“AI团队”,共同驱动复杂任务的完成。

CAMEL AI正向着AGI的终极目标稳步迈进,为各行各业带来全新视角和无限可能。

CAMEL AI论文题目:CAMEL: Communicative Agentsfor “Mind” Exploration of Large Scale Language Model Society 

论文链接:https://arxiv.org/abs/2303.17760

代码链接:https://github.com/camel-ai/camel

项目主页:https://www.camel-ai.org/

在此次合作中,CAMEL AI 成功集成了通义千问 Qwen 系列模型,包括 Qwen2.5-Coder(擅长代码生成与修复)、Qwen-max(高性能模型)、Qwen-plus(优化通用性能)、Qwen-turbo(注重运行速度)和 Qwen-long(支持长文本处理)等多个版本。这些模型在性能、速度和适应性方面各具特色,能够充分满足用户在多样化场景下的需求。

其中,以强大、多样、实用闻名的Qwen2.5-Coder更是出类拔萃。作为目前最先进(SOTA)的开源代码模型,Qwen2.5-Coder-32B-Instruct 不仅在代码能力上追平了 GPT-4o,还在 40 多种编程语言中表现出色。此外,Qwen2.5-Coder 系列已涵盖主流的六个模型规模。在多编程语言代码修复基准 MdEval 中,Qwen2.5-Coder-32B-Instruct 取得了 75.2 分,位居所有开源模型之首。无论是在代码助手、Artifacts 生成,还是 interpreter 等场景中,其使用体验都堪称流畅丝滑。当然,如此强大的模型,CAMEL当然及时整合入框架啦,欢迎大家使用!

代码能力达到开源模型 SOTA

丰富的模型尺寸:

优秀的多编程语言的代码修复能力:

通过整合Qwen系列模型,CAMEL框架的多样性显著提升,使得平台能够满足不同行业、不同规模用户的多样化需求。通过这一整合,CAMEL 用户可以根据具体应用场景灵活选择合适的模型,例如码开发中使用 Qwen2.5-Coder长文档生成或数据分析中选择 Qwen-long,从而在内容创作、技术开发、客服支持等领域显著提升效率,为智能化应用提供更高效的解决方案。

未来,CAMEL AI将继续与业内领先的AI研发机构及企业深化合作,致力于打造一个更为强大、开放的智能平台,为全球用户带来更优质的智能体验。一起探索AI Agents的无限可能性吧!


CAMEL AI
这里是CAMEL-AI开源社区官方公众号,希望让更多的中文开发者们了解最新的Agent行业资讯和CAMEL-AI的更新与改进。
 最新文章