阿里巴巴发布了Marco-o1!
阿里巴巴刚刚发布了一款全新的开源推理模型Marco-o1,它不仅专注于标准答案领域,更致力于解决开放性问题。
这个名为Marco-o1的模型可不是简单的大语言模型。
它通过思维链(CoT)微调、蒙特卡罗树搜索(MCTS)和反思机制等创新技术,让AI在处理复杂问题时更加得心应手。
为什么Marco-o1如此与众不同?
它不再局限于数学、物理和编程等有标准答案的领域,而是勇敢地迈向了没有标准答案的开放性问题。这就像是让AI从「做选择题」进化到了「写论文」的水平!
技术亮点全解析
Marco-o1的核心优势体现在四个方面:
思维链微调:团队使用开源CoT数据集和自研合成数据对基础模型进行全参数微调,打造出Marco-o1-CoT。
MCTS解决方案扩展:通过将大语言模型与蒙特卡罗树搜索(MCTS)相结合,利用模型输出的置信度来指导搜索,大大扩展了解决方案空间。
创新推理策略:实现了全新的推理行动策略和反思机制(Marco-o1-MCTS Mini-Step),在MCTS框架内探索不同的行动粒度,并引导模型进行自我反思。
突破性翻译应用:首次将大型推理模型(LRM)应用于机器翻译任务,探索多语言和翻译领域的推理时间扩展规律。
实力有多强?数据说话!
研究团队在Qwen2-7B-Instruct的基础上,通过精心设计的数据集进行微调。实验结果显示:
MGSM英文数据集:准确率提升6.17%
MGSM中文数据集:准确率提升5.60%
最让人惊喜的是,Marco-o1在翻译任务上展现出了惊人的实力。它能够准确理解并翻译俚语表达,将「这个鞋拥有踩屎感」这样的口语化表达优雅地转化为「This shoe has a comfortable sole」。
开箱即用!快速上手指南
想要体验Marco-o1的强大功能?只需要几行代码:
# 直接加载模型
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("AIDC-AI/Marco-o1")
model = AutoModelForCausalLM.from_pretrained("AIDC-AI/Marco-o1")
如果你想使用vLLM加速推理,可以直接运行:
./src/talk_with_model_vllm.py
这个来自阿里巴巴国际数字商业部MarcoPolo团队的新作品,正在为AI的推理能力开辟新天地。它不仅能解决标准问题,更重要的是能够处理那些没有标准答案、难以量化的开放性问题。
这或许就是AI走向真正智能的关键一步。毕竟,人类面对的大多数问题,都不会有标准答案。
Marco-o1的开源,将为整个AI社区带来新的可能。
相关链接
[1] https://huggingface.co/papers/2411.14405
[2] https://huggingface.co/AIDC-AI/Marco-o1
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!