最近,Meta重磅发布了新一代AI模型Llama 3.3,号称用70B的参数量就能达到405B的性能,这波操作本该成为焦点。但眼尖的网友们却发现了一个更有趣的细节...
神秘消失的对手
中国的Qwen模型"被消失"了?!
这个发现直接让Reddit帖子获得了176个赞,成为最热评论,看来大家都发现了这个"此地无银三百两"的操作~
老哥(带着姜文式笑容)评论道:"As usual, Qwen comparison is conspicuously absent."(老规矩,Qwen的对比数据又神秘消失了)
另一位网友更是直接点破:"I think it is because they don't want to show any Chinese models being comparable."(我觉得是因为他们不想展示中国模型的可比性)
这条评论获得了82个赞,看来大家都懂的都懂啊~
有趣的选择性对比
Meta选择性对比了这些对手:
Google的Gemini 1.5 Pro(谷歌大哥) OpenAI的GPT-4o(OpenAI老祖宗) 亚马逊的Nova Pro(贝佐斯老板的新玩具)
结果一位网友直接整活:"Meanwhile it's compared to checks notes Amazon Nova Pro? What the fuck is Amazon Nova Pro?"(等下,对比Amazon Nova Pro?这玩意儿是啥啊?)🤣
真相大白:数据会说话
资深用户@DeProgrammer99做了一个详细对比,发现:
Llama 3.3 70B和Qwen 72B实力相当 在某些测试中两者交替领先 甚至Qwen的32B版本也能和Llama 3.3过过招
实测反馈也很有意思:
一位用户表示:"Pretty disappointed with it as a Home Assistant LLM. It gets confused far more easily than Qwen 2.5 72b."(作为家庭助手,它比Qwen 2.5 72b更容易混乱) 但也有网友强调在自己的测试中,Llama 3的工具使用和指令遵循方面始终优于Qwen
神转折:有人支持这种"选择性失明"?!
有意思的是,居然有网友支持这种做法:"I actually prefer it like this, we don't want attention on Qwen. If the politicians get a whiff of air that Chinese models are cooking..."(我其实更喜欢这样,我们不想引起对Qwen的关注。如果政客们意识中国模型在崛起...)
技术角力:细节见真章
上下文之争也很精彩:
都说Llama有"sweet sweet 128k context" 但网友指出Qwen实际支持132k🤯 一位网友评论:"It is, but it is not so sweet"(是这样,但没那么香) 不过已有好心网友贡献了128k的gguf模型,可喜可贺
意外收获:倒逼创新?
一位网友的调侃引发深思:"This is how OpenAI creates intelligence too cheap to measure. By forcing people to build open source"
(这就是OpenAI如何创造"便宜到无法衡量的 AI ",通过逼大家做开源)😂
结语:开源江湖的暗潮涌动
这场看似普通的模型发布会,却意外揭示了AI领域的诸多有趣现象:
技术实力无法掩盖 商业策略各显神通 开源社区生机勃勃
最重要的是,在这场"选择性失明"的背后,我们看到了全球AI竞争的新格局。正如网友所说,有时候"看不见"的东西,才是最值得关注的。
"因为在AI的世界里,最迷人的永远是那些未被说出的真相。"