点击蓝字关注
火爆的大模型,好像在朋友圈消失了
你是否和我一样的感受?
曾几何时,大模型如GPT在科技界掀起了一股前所未有的热潮,以其强大的自然语言处理能力和广泛的应用前景,成为了人们茶余饭后的热议话题。
好像一夜之间就要变天,不是说马上就要改变世界了吗,然而,随着时间的推移,这股热潮似乎在朋友圈这个日常交流的舞台上悄然退去,变得不再那么引人注目。
前两天一个朋友问我,大模型成熟吗?现在大模型到底到哪个阶段了?
我认认真真的研究了下,我觉得大概判断的逻辑是这样:
世界的重大改变或者变革,往往来自底层技术的变化,尤其是技术商业化;
如何判断一个技术商业化的成熟度?三个要素:更好,更快,更便宜;
技术的商业化,就是生产效率的极大的改变,规模化的到来。
我们先看看AI整体技术底层到底是怎么变化的?
我从行业报告中找了一张图,这张图主要描述了AI在能力上的不断的进化及增强,
第一阶段AI以逻辑推理为主,AI能力主要聚焦决策和认知;
第二阶段AI注重概率统计的建模、学习和计算,AI能力开始聚焦感知、认知和决策;
第三阶段AI聚焦学习环节,注重大模型的建设,AI能力覆盖学习和执行;
第四阶段则聚焦执行与社会协作环节,开始注重人机交互协作,注重人类对人工智能的反馈训练。
数据来源:公开资料收集
结论是,AI的能力正在变的越来越强,不仅更好而且模型能力增强的速度越来越快,也就意味着能解决的问题越来越多。
以下是一些最新的论文说明:
大模型技术通过增加模型规模和参数数量,显著提升了AI系统的处理能力。
例如,MIT的研究表明,大模型的能力每8个月翻一倍,这一增速远超摩尔定律。
此外,大模型能够处理更大规模的数据集,并且在图像分类、视觉推理和英语理解等任务上超越人类。这些突破使得AI系统可以更高效地完成复杂任务。
数据来源:论文地址:https://arxiv.org/pdf/2403.05812.pdf
另外一点,和我们认知的差异也有关,我们一提大模型就会觉得一定很贵,实际上,大模型技术在降低成本方面也取得了显著成果。
ARK Invest的报告指出,人工智能训练成本下降了100倍,尽管训练最先进AI模型的成本仍然很高。
然而,随着技术的进步,未来几十年可能会看到更大的成本下降。此外,利用人工智能优化存储资源可以显著降低数据存储成本。
麦肯锡的调查显示,人工智能的整合使企业成本下降,收入增加。
两年间,AI训练成本下降了100倍,方舟评估委员会在其报告中发现,从1960年到2010年,按照摩尔定律,用于训练的AI算力翻了一番。
人工智能计算的复杂度自2010年以来每年飙升10倍(每秒千万亿次运算)。与此同时,过去三年的训练成本每年下降10倍。
AI算法效率每16个月翻一番。
数据来源:https://developer.aliyun.com/article/851547
对用户成本来说,使用大模型的门槛越来越低,加上市场的充分竞争,各大厂商为针对用户前段时间疯狂的降价就是一个最好的例子,这意味着边际成本会越来越低。
结论就是,训练一个同样效果的模型,整体的经济成本及时间成本在下降,也就是越来越便宜。
训练成本在急剧下降,训练的算法效率在提高。
从上面大概的推演来看,我们当前正处在一个大模型在应用层大规模落地的环节,一系列的新的技术应用解决方案正在诞生,正处于变化的拐点中。
数据来源:公开资料收集
02.
什么制约了当前AI 技术规模化应用?
关键因素1:算力的紧缺和巨大的能耗
想象一下,大模型就像是一个超级“大脑”,它需要处理海量的信息,就像一个图书馆里的所有书籍。
但要让这个“大脑”运转起来,我们需要巨大的能量。这就好比,电灯泡代替了蜡烛,确实亮堂了不少,但当灯泡越来越多,电网的压力也就越来越大。
大模型的训练,就像给这个“大脑”灌输知识,需要的算力,也就是计算能力,是巨大的。
举个例子,训练像ChatGPT这样的模型,训练ChatGPT所需的算力相当于64个英伟达A100 GPU训练1年的时间。
这不仅对全球的算力提出了挑战,而且对能源的消耗也是惊人的。
据说,训练一个大模型所消耗的电能,可能相当于一个小国家一年的用电量。
一个现实的数据人工智能服务器的功率较普通服务器高6至8倍,训练大模型所需的能耗是常规云工作的3倍。
据估计,目前人工智能的能源消耗占全球能源消耗的3%左右,到2025 年,人工智能将消耗全球15%的电能。
而且,当我们谈论算力的时候,我们不能忽视中美之间的竞争。
就像在赛跑中,美国目前看起来跑在前面,他们的智能算力规模是我们的1.6倍。
这就意味着,我们得加快脚步,迎头赶上。
关键要素2:数据规模与质量的提高,以及投入与产出的不确定性
再来说说数据,大模型需要大量的数据来“学习”,就像一个孩子需要大量阅读来增长知识。
但是,获取这些数据并不容易,它们可能分散在不同的角落,有时候获取它们可能还需要跨越一些法律和隐私的障碍。
数据的质量也很关键。就像我们吃饭需要营养均衡一样,大模型也需要高质量的数据来保证其“思考”的准确性。
但是,开源的数据集就像一个大杂烩,里面可能有精华,也可能有糟粕。
此外,大模型的研发成本非常高,就像培养一个天才儿童,需要投入大量的时间和金钱。
而且,这个过程中还存在很多不确定性,有时候投入巨大,但产出可能并不如预期。
以Meta大语音模型LLaMA为例,在多达1.4万亿的数据集上,使用2000多个英伟达A100 GPU,训练了21天,花费或高达1000万美元。
根据华为公布的消息,开发和训练一次人工智能大模型的成本高达1200万美元。
关键因素3:顶尖人才的稀缺
最后,我们得聊聊人才问题。
大模型的研发需要顶尖的人才,就像建造一座大厦需要一流的建筑师一样。
但目前,我们的人才库还不够充裕,特别是与美国相比,我们的顶尖人才还相对较少。
这就像是一个恶性循环:人才短缺导致研发滞后,研发滞后又难以吸引更多人才。
而且,国内的一些顶尖人才可能会选择出国深造,甚至留在国外,这无疑加剧了人才的流失问题。
我国人工智能人才缺口超过500万,供需比例严重失衡,人工智能成为“最缺人”的行业。
其次,人才质量不够高。
与美国相比,国内缺乏顶尖算法人才,数量严重不足。美国在全球最具影响力的人工智能学者榜单中占据主导地位,中国学者数量远远落后。
此外,人才外流问题也十分严重。许多国内优秀人才选择出国深造并留在国外,导致顶尖人才的流失。
这加大了国内大模型研发与美国的差距,给我国大模型研发带来严峻挑战。
03.
大模型从数据中学习获得智能, 大模型引发新的工业革命?
画了如下的一张图用来对比第一次工业革命和大模型这次智能革命的关系,
简单说对标工业革命来说,蒸汽机完成了从燃料转化为动能,与此同时基于此动力单元应用于各个机械设备中,比如纺纱机、蒸汽机车、轮船等;
大模型也是同样的道理,将数据通过大模型转化成智能的能力,加工信息,通过一个个的Agent智能体赋能到各行各业。
数据来源:公开资料收集
万维钢老师《拐点》这本书中,讲了AI逐步替换改变的几个阶段,
第一个阶段叫点解决方案,点就是观点的点,也就是简单的输入置换,比如电灯泡代替了蜡烛。
你看,这就是在照明这个点上解决了问题。大家的生活方便了一点,成本降低了一些,但仅此而已。
第二个阶段叫做应用解决方案,意思是新技术已经把整个生产装置给替换了,
比如工厂里的机器,从蒸汽动力变成了电驱动,生产效率极大提高,但同时,所有的机器也必须重新设计,和电能这种全新的能源相互配合。
到目前为止,我们对于人工智能,AI的运用,还停留在点解决方案,和一定程度上的应用解决方案,还没有完全发挥它的潜力,
比如亚马逊履单中心,用机器臂和机器人完成分拣、搬运,就是一种人工智能的点解决方案;
而亚马逊用大数据分析,搞出来的“先寄后买”,就相当于一种应用解决方案。
但是我们必然会发展到第三个阶段,也叫“系统解决方案”这个阶段;
什么意思呢?还是拿工厂来打比方:蒸汽时代的工厂,因为机器由一根蒸汽轴驱动,所以机器都必须布置在这根轴的附近,
而改用电能后,只要有电源,机器就可以放在工厂车间里的任何一个位置,从而充分地利用空间,没必要把机器集中在一起,从而让生产流水线得以诞生,
引发了生产方式和组织方式的大规模变革,这就是“系统解决方案”。
所以说,亚马逊在这个“先寄后买”基础上,再用人工智能,把退换货接管了,顺便搞个数据分享生态,和每个用户家里的电器,
比如冰箱什么的打通了,家里缺点啥,物流中心就能感知到,提前精准发货;那我们看,这就是一个人工智能的”系统解决方案”了。
这一天,早晚会到来。
之所以我们普遍存在一个感受,觉得怎么大模型怎么还没改变世界,正如苏轼提到的那句话,"不识庐山真面目,只缘身在此山中。"
也许正因为我们在这个局中一样。
最后我问AI,为什么你到现在还没有改变世界?
它是这样答复我的:"我不是改变世界的巨浪,而是引领思考的涟漪。"
以上。
有启发就“一键三连”,人工码字,原创不易,谢谢你的转发。
个人微信:扫一扫,一起加入方案经理圈。
加我后台回复“GPT”领取售前Prompt工具包;
别急着走,有启发就“一键三连”,交个朋友,由于改版,劳烦大家动动大拇指点击一下“看一看”、“精选”,最好“⭐ 星标”一下公号,这样推文发出,会第一时间出现在你的订阅栏,辛苦大家了。
更多干货推荐阅读:
行业洞察:
科技前沿:
年度盘点|2023,无法撤回,史诗级的科技大事件?(技术篇)
年终盘点|再见2022,点亮黑暗的不是阳光是什么?(技术篇)
7 万亿美元的芯片融资计划?Open AI CEO 山姆*奥特曼的战略和野心
获取高质量答案,怎么向ChatGPT提出一个好问题?(实操版)
是“iPhone时刻”还是“互联网时刻”?都不是,我想聊聊那些“卡脖子的时刻”|附最新GPT插件列表