前一阶段被爆出GPT-所需要的参数达到惊人的5万亿,大部分人都没有太过于关注这个消息,原因就是大家还持有怀疑的态度,所以对于这种惊人的消息将信将疑。在这里我给出我的结论,5万亿大概率是合理的,原因我会慢慢给大家分析。
GPT-5足以让全球科技巨头和AI爱好者们也为之侧目。据三星高层的隐秘透露,GPT-5是前所未有的5万亿参数,天文数字不仅是对当前大模型的极限探索调整,更是对英伟达与AMD算力供应的一次极限考验。
5万亿参数意味着什么?是GPT4的2200亿参数22倍还要多,足以让英伟达都感到颤抖的数字。因为按照算力需求呈指数级增长的趋势来推算,GPT-5所需的GPU数量将远超GPU产商的想象,而且需要的电费成本恐怕足以让许多企业望而却步。但正是这样的挑战,让奥特曼小扎这些犟驴跃跃欲试。“大不了建几个水电站,再不行就向中国采购几万亩的光伏电池板”。如果从Scaling Law的视角来看,GPT-4作为MoE模型的先驱,已经通过16个2200亿参数的Experts组合,实现了接近1.8万亿参数的规模。而GPT-5,则是这一逻辑的自然延伸,因为GPT5是追求一个单一模型就能可以达到万亿参数的方法。其实这个是大模型重要里程碑进化。距离传说中的“人脑连接极限”——1000万亿连接,又近了一步,也就是说AGI更进一步了。以当前最强的Nvd GB200 NVL72为例,13.5TB的HBM3e内存,即便是在这样的硬件支持下,训练GPT-5也可能需要几万块GPU的协同工作。如果换成A100就是几百万颗,不知道大家对这个数字有没有概念,如果这个模型开源,那么大厂们的需求都是百万级别的需求,恐怕再来一个台积电也不够生产的吧?即便是量化到8Bit或4Bit,GPT-5的模型规模依然庞大得惊人
上一个草莓模型的推理能力得到了验证,大家也相信奥特曼的实力,推理算力的需求目前是一个很大问题,你放开使用就会无法供应算力,不放开就会面临商业化亏损。所以这是大厂们一个重大难题抉择。他们的挑战远不止于此。如果GPT-5这样的怪兽从训练阶段步入推理阶段时,其工程优化的难度将成倍增加。如何在保证模型精度的同时,降低推理成本,成为摆在所有open ai面前的难题。如果按照量化的技术,虽然可以在一定程度上减小模型体积,但即便是量化到8Bit或4Bit,GPT-5的模型规模依然庞大得惊人。那么开放后,确定以现在的推理算力都都使用吗?
如果翻开历史看,GPT-4到GPT-4o的优化国产,OpenAI是花了一年多的时间才实现了效率提升。但对于规模更为庞大的GPT-5来说,这一优化过程又将持续多久?这其中的技术挑战和资金投入还有大量的工程师,恐怕是难以估量的吧?我们也不得不正视一个现实:真正意义上的通用人工智能依然遥不可及。自学习技术虽然已经在理论和实验室阶段在草莓大模型上显著有点进展,但距离实际应用还有一段路要走。GPT大模型,是当前AI领域的明星产品,背后的技术原理和应用场景都相对明确。但我觉得这并不意味着AI的未来就局限于此。实际上,AI是一个纷繁复杂、充满无限可能的超级学科。除了文本处理领域外,AI在图像识别、语音识别、自动驾驶、医疗诊断等多个领域都可以出巨大的潜力,而不是像老美一样,仅仅局限于娱乐,作为中国,我们应该多把方向像医疗工业等其他行业引导。“GPT Next”,比GPT-4强大100倍。”我觉得三星高管的爆料、OpenAI日本办事处负责人的演讲、微软CTO的猜测……每一个消息都值得大家关注。那个自称是OpenAI训练的匿名聊天机器人的出现,更是为这场盛宴增添了几分神秘,我们也应该保持清醒的头脑。AI技术的发展并非一蹴而就的过程,它需要我们投入大量的时间、精力和资源。AI的行业势不可挡,只要朝着大方向不断前进,多数情况下,一定会成功,会看到AGI的那一天。就像会上透露一样,“GPT Next”,比GPT-4强大100倍。希望大家不要迷失自己,更不要质疑AI的无用性。回到那个儿时的记忆——《魔方大厦》中的“鹦鹉博士”,它虽然拥有超凡的智慧和能力,但终究只是虚构的存在。而GPT-5乃至未来的AI技术,则有可能成为我们现实生活中的“鹦鹉博士”。它们将如何改变我们的世界?又将如何影响我们的未来?