大家新年好!祝大家新的一年薪资歘欻的涨,论文嗖嗖的发!
没错,就在前几天,Microsoft发布的arxiv里竟然写了OpenAI闭源的大模型的具体参数!(消息来自:xhs博主 Scarlett_WH)
论文:MEDEC: A Benchmark for Medical Error Detection and Correction in Clinical Notes
链接:https://arxiv.org/pdf/2412.19260
里面具体公布了:
GPT-4 ~1.76T GPT-4o ~200B GPT-4o mini ~8B o1 preview ~300B o1 mini ~ 100B
这里有1个平常震惊是GPT-4 ~1.76T
是真的大,有卡就是好;1个目瞪口呆的震惊GPT-4o mini ~8B
,嗯哼?
再次怀疑微软的可信度,毕竟之前有过一次... 但是应该不会再来一次了吧。且信其为真吧,但是这也太不夸张了吧,还是难以置信,难道是这个8B只是激活的参数?或者用的MoE,这只是一个expert的参数?啥蒸馏技术这么nb?
主要是4o mini的表现肯定不止8B啊,你们认为呢?用过的同学肯定能体会到,这个和qwen和llama的7B根本不是一个档次的。
如果是真的,那是真nb!性价比之王!
以Gemini 1.5 Pro为对比举例:
嗯,是的,便宜40多倍~
希望微软不要再公布错参数了~
小模型又看到了希望!
快来留言谈谈你的看法吧~