Meta重磅发布Llama 3.3,为什么不敢对比这个中国模型?

文摘   2024-12-09 11:44   新加坡  

最近,Meta重磅发布了新一代AI模型Llama 3.3,号称用70B的参数量就能达到405B的性能,这波操作本该成为焦点。但眼尖的网友们却发现了一个更有趣的细节...

神秘消失的对手

中国的Qwen模型"被消失"了?!

这个发现直接让Reddit帖子获得了176个赞,成为最热评论,看来大家都发现了这个"此地无银三百两"的操作~

老哥(带着姜文式笑容)评论道:"As usual, Qwen comparison is conspicuously absent."(老规矩,Qwen的对比数据又神秘消失了)

另一位网友更是直接点破:"I think it is because they don't want to show any Chinese models being comparable."(我觉得是因为他们不想展示中国模型的可比性)

这条评论获得了82个赞,看来大家都懂的都懂啊~

有趣的选择性对比

Meta选择性对比了这些对手:

  • Google的Gemini 1.5 Pro(谷歌大哥)
  • OpenAI的GPT-4o(OpenAI老祖宗)
  • 亚马逊的Nova Pro(贝佐斯老板的新玩具)
CDN media

结果一位网友直接整活:"Meanwhile it's compared to checks notes Amazon Nova Pro? What the fuck is Amazon Nova Pro?"(等下,对比Amazon Nova Pro?这玩意儿是啥啊?)🤣

真相大白:数据会说话

资深用户@DeProgrammer99做了一个详细对比,发现:

  • Llama 3.3 70B和Qwen 72B实力相当
  • 在某些测试中两者交替领先
  • 甚至Qwen的32B版本也能和Llama 3.3过过招
CDN media

实测反馈也很有意思:

  • 一位用户表示:"Pretty disappointed with it as a Home Assistant LLM. It gets confused far more easily than Qwen 2.5 72b."(作为家庭助手,它比Qwen 2.5 72b更容易混乱)
  • 但也有网友强调在自己的测试中,Llama 3的工具使用和指令遵循方面始终优于Qwen

神转折:有人支持这种"选择性失明"?!

有意思的是,居然有网友支持这种做法:"I actually prefer it like this, we don't want attention on Qwen. If the politicians get a whiff of air that Chinese models are cooking..."(我其实更喜欢这样,我们不想引起对Qwen的关注。如果政客们意识中国模型在崛起...)

技术角力:细节见真章

上下文之争也很精彩:

  • 都说Llama有"sweet sweet 128k context"
  • 但网友指出Qwen实际支持132k🤯
  • 一位网友评论:"It is, but it is not so sweet"(是这样,但没那么香)
  • 不过已有好心网友贡献了128k的gguf模型,可喜可贺

意外收获:倒逼创新?

一位网友的调侃引发深思:"This is how OpenAI creates intelligence too cheap to measure. By forcing people to build open source"

(这就是OpenAI如何创造"便宜到无法衡量的 AI ",通过逼大家做开源)😂

结语:开源江湖的暗潮涌动

这场看似普通的模型发布会,却意外揭示了AI领域的诸多有趣现象:

  • 技术实力无法掩盖
  • 商业策略各显神通
  • 开源社区生机勃勃

最重要的是,在这场"选择性失明"的背后,我们看到了全球AI竞争的新格局。正如网友所说,有时候"看不见"的东西,才是最值得关注的。

"因为在AI的世界里,最迷人的永远是那些未被说出的真相。"


云中江树
AI 提示词怎么应用?关于提示词你需要知道的一切。结构化提示词的提出者,wx 1796060717
 最新文章