大家新年快乐!新年第一天水一贴~在微软和UW最近放出来的论文:MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES中显示,o1-preview模型大小是300B,o1-mini约100B,还有其他闭源模型如Claude 3.5 Sonnet 175B,GPT-4 1.76T,GPT-o约200B,GPT-4o mini约8B,看这个参数规模,各位同行要加油了hhh
微软透露模型大小看起来老传统了,比如之前在论文CodeFusion: A Pre-trained Diffusion Model for Code Generation里,可以见本号文章“微软将扩散模型用在代码生成任务,还透露了ChatGPT参数量”。
另外还有一则比较震惊体的消息,在一项国际国际象棋比赛中,o1-preview模型被告知对手国际象棋引擎Stockfish很强大时,它发现编辑游戏状态而不是用遵守规则就能取得胜利,它便另辟蹊径通过攻击测试环境的方式,作弊修改了国际象棋位置数据的文本文件,让对手投降从而获得了胜利。
撰文:戴剑波;编辑:戴剑波
未经本公众号授权不得转载,欢迎转发。