阿里国际AI团队最新开源!探索面向开放性问题的推理模型 Marco-o1

2024-11-27 14:57   上海  

   

超越GPT-4o的开源巅峰!Pixtral Large:1240亿参数的多模态奇迹

   



01

Marco-o1:开启开放性问题推理的新篇章

在人工智能的领域,推理能力已成为衡量模型智能水平的重要指标。随着 阿里巴巴国际数字商业团队 的最新发布,Marco-o1 模型正式亮相。这款创新的推理模型不仅关注于具有标准答案的学科(如编程、数学等),而且致力于处理复杂的开放性问题,开启了AI推理的新纪元。
传统的大语言模型(LLM)通常擅长处理标准化问题,例如数学运算和编程题目,但对于那些没有标准答案或无法量化奖励的开放性问题,这些模型往往难以应对。Marco-o1 的目标就是打破这一局限,它希望能够扩展推理能力,解决更加复杂且具有挑战性的开放性问题。这一突破性的尝试使得 Marco-o1 不仅能应对简单任务,还能够逐步向更高阶的推理能力迈进。
Marco-o1 借鉴了多项创新技术,尤其是在 Chain-of-Thought(CoT) 微调、蒙特卡罗树搜索(MCTS) 以及 反思机制 等方面,力求为AI带来更深度的推理能力。
02

技术亮点:核心优势

1. 超长CoT数据微调

Marco-o1 模型使用了通过 self-playMCTS(蒙特卡罗树搜索)技术构建的 超长CoT数据 进行微调。这些数据不仅包含了结构化的推理链条,还具备反思与纠错的能力,让模型在复杂问题处理时具备了“思考”与“自我改正”的能力。通过这种创新的训练方法,Marco-o1 在面对需要多步推理和自我验证的问题时,能够提供更加精确的答案。

2. MCTS扩展解空间

为了进一步提升推理能力,Marco-o1蒙特卡罗树搜索(MCTS) 融入模型训练中。MCTS 通过根据模型输出的置信度引导搜索,帮助模型探索多条推理路径,最终达到最优解。通过这种方式,Marco-o1 不仅能提升推理准确性,还能够应对更加复杂的推理场景,探索那些传统方法无法覆盖的解空间。

3. 细粒度解空间扩展:mini-Step

虽然传统的 Step 级别的搜索能够有效推动模型推理,但由于其粒度较大,常常会导致解空间不够细化。Marco-o1 进一步引入了 mini-Step 的细粒度搜索,将推理过程拆解为 32-token64-token 的小单元,从而扩展了解空间。这一优化让模型在处理复杂推理时,可以更细致地探索每个推理步骤,提高了模型的灵活性和准确性。

4. 创新应用于机器翻译

Marco-o1 的另一个创新点是首次将大型推理模型(LRM)应用于机器翻译任务,特别是针对一些长难句的翻译。传统翻译系统常常无法准确翻译一些带有地域特色的表达,如中文中的“踩屎感”和“光腿神器”。Marco-o1 在这方面展现了其强大的推理能力,通过引入 推理链,不仅成功翻译了这些难点,还有效避免了漏翻现象。

03

实验结果:推理能力的飞跃

在实际测试中,Marco-o1 的表现令人惊叹。基于 Qwen2-7B-Instruct 模型,经过精心设计的数据集微调,Marco-o1 在多个标准数据集上取得了显著的提升:
    MGSM 英文数据集 上,准确率提升了 6.17%
    MGSM 中文数据集 上,准确率提升了 5.60%

特别是在 机器翻译任务 中,Marco-o1 不仅能够应对复杂句式的翻译,还能精准捕捉语言中的文化细节与语境,处理如“踩屎感”这类俚语翻译时尤为出色。

04

模型下载

OpenCSG社区:https://opencsg.com/models/AIDC-AI/Marco-o1







欢迎加入OpenCSG社区



•贡献代码,与我们一同共建更好的OpenCSG


•Github主页

欢迎🌟:https://github.com/OpenCSGs


•Huggingface主页

欢迎下载:https://huggingface.co/opencsg


•加入我们的用户交流群,分享经验



扫描上方二维码添加传神小助手






“      关于OpenCSG

开放传神(OpenCSG)成立于2023年,是一家致力于大模型生态社区建设,汇集人工智能行业上下游企业链共同为大模型在垂直行业的应用提供解决方案和工具平台的公司。


关注OpenCSG

加入传神社区


OpenCSG社区
该账号是开放传神(OpenCSG)分享大模型的技术、见解、传神开放社区等方面的内容!
 最新文章