微软公布OpenAI闭源模型参数!4o-mini 8B!

学术   2025-01-03 18:22   江苏  

大家新年好!祝大家新的一年薪资歘欻的涨,论文嗖嗖的发!

没错,就在前几天,Microsoft发布的arxiv里竟然写了OpenAI闭源的大模型的具体参数!(消息来自:xhs博主 Scarlett_WH)

论文:MEDEC: A Benchmark for Medical Error Detection and Correction in Clinical Notes
链接:https://arxiv.org/pdf/2412.19260

里面具体公布了:

  • GPT-4 ~1.76T
  • GPT-4o ~200B
  • GPT-4o mini ~8B
  • o1 preview ~300B
  • o1 mini ~ 100B

这里有1个平常震惊是GPT-4 ~1.76T是真的大,有卡就是好;1个目瞪口呆的震惊GPT-4o mini ~8B,嗯哼?

再次怀疑微软的可信度,毕竟之前有过一次... 但是应该不会再来一次了吧。且信其为真吧,但是这也太不夸张了吧,还是难以置信,难道是这个8B只是激活的参数?或者用的MoE,这只是一个expert的参数?啥蒸馏技术这么nb?

主要是4o mini的表现肯定不止8B啊,你们认为呢?用过的同学肯定能体会到,这个和qwen和llama的7B根本不是一个档次的。

如果是真的,那是真nb!性价比之王!

以Gemini 1.5 Pro为对比举例:

4o-mini比Gemini 1.5 Pro强
4o-mini却比Gemini 1.5 Pro便宜40多倍...

嗯,是的,便宜40多倍~

希望微软不要再公布错参数了~

小模型又看到了希望!

快来留言谈谈你的看法吧~



进技术交流群请添加AINLP小助手微信(id: ainlp2)

请备注具体方向+所用到的相关技术点

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括LLM、预训练模型、自动生成、文本摘要、智能问答、聊天机器人、机器翻译、知识图谱、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLP小助手微信(id:ainlp2),备注工作/研究方向+加群目的。

AINLP
一个有趣有AI的自然语言处理公众号:关注AI、NLP、大模型LLM、机器学习、推荐系统、计算广告等相关技术。公众号可直接对话双语聊天机器人,尝试对对联、作诗机、藏头诗生成器、自动写作等,查询相似词,测试NLP相关工具包。
 最新文章