从命名看,o1(omni-1)其实是一个多模态模型,只是多模态能力还在安全对齐中,尚未开放使用,导致很多人忽略了这一点。大家还在考虑CoT如何结合多模态时,o1事实上已经做到了这一点,甚至还取得了十分夸张的效果。o1在多模态评测数据集MMMU上的得分为78.2%,使其成为MMMU上第一个摸到人类专家水平的模型。
开源多模态大模型才勉强达到GPT-4V的水平,和OpenAI的两个新的主力模型:GPT-4o和o1还有着不小的差距:
点击👇关注 “思源数据科学”
👇点个“赞”和“在看”吧
从命名看,o1(omni-1)其实是一个多模态模型,只是多模态能力还在安全对齐中,尚未开放使用,导致很多人忽略了这一点。大家还在考虑CoT如何结合多模态时,o1事实上已经做到了这一点,甚至还取得了十分夸张的效果。o1在多模态评测数据集MMMU上的得分为78.2%,使其成为MMMU上第一个摸到人类专家水平的模型。
开源多模态大模型才勉强达到GPT-4V的水平,和OpenAI的两个新的主力模型:GPT-4o和o1还有着不小的差距:
点击👇关注 “思源数据科学”
👇点个“赞”和“在看”吧