编者按:这篇文章来自于知乎科技的邀请,作者喜欢这篇文章写作时候的例子,特别分享在此
原问题是阿里副总裁刘伟光发起的:
目前大模型的社会和商业价值是被低估还是高估了?面对 AI 时代,企业应做好哪些准备?
对于大模型产品保持关注,保持持续参与是很重要的,这是讨论问题的基础,比如说我们举个野猪和比特币的例子:
1 新闻上都可以看到的:比特币刚出来的时候,很多人高估了短期变现能力,低估了长期价值,导致刚拿上一些,没多久,抛掉了,再回首已是天价
2 不常关注但确实影响被低估的:近年野猪泛滥,数量超过200万头,已经在26个省份造成影响。
野猪这个事,如果你不关注,不了解,就不明白他的影响程度。如果一头野猪在你面前野蛮冲撞,你会明白他的影响力。
而大模型的浪潮,远远超过比特币的社会影响和价值,现在只是刚开始。
当你不关注野猪时,你不了解它,它也不了解你:
当你关注到时,需要抓紧了解一下,做出反馈:
这仅仅是开始,以后的价值会远远超过想象,成为电力、能源一样不可或缺的一部分。逐渐进入量化时代,就像每年我们都可以知道电力的装机量,发电量但是无法评估电带来的社会价值一样。
目前社会观众普遍高估大模型的通用能力,通用能力的商业和社会价值被高估了
专业细分的大模型的社会和商业价值,被低估了
在2014年的时候,围棋圈普遍认为,人工智能想要突破围棋,还需要30年以上,因为玩法太复杂了。当时技术圈普遍比较乐观,认为短时间内会突破,而专家圈普遍不乐观。10年后的今天,有这些变化:1 专家的价值下降很大,原来职业棋手的指导棋和讲解,价格下降严重,需求量也减少了,借助AI训练的棋手重出江湖 2 原来努力但是没有一线学习资料的棋手,脱颖而出,在各自的圈子都出了成绩。3 原来的理论讲解的图书,大多过时了,所有的内容需要重新诠释,而秘籍就在每个人电脑里
仅仅是在围棋一个这么细分的领域,AlphaGo的出现,带来的是整个行业的变革,在2016年,我看到了Google等巨头公司的总裁,因为看到了AlphaGo对抗赛一天七千万人的关注而专程访问中国,这是细分专业人工智能的威力。
如今,大模型可以折叠蛋白质,可以打星际争霸,这些细分的领域都会受到一样的行业冲击。
围棋领域有了AI以后,很快啊,没有闪,就出现开源五连击,算法开源、用户端开源,这些技术冲击带来的是原来的教练的教学方法全部需要刷新,过去的图书全部需要重做。
围棋界没有人工智能时候树下悟道的既视感:
人工智能(不是野猪)来临的既视感:
不要期待野猪一样的图,因为不是一个场景,不过AI要比野猪压迫力要大多了,行业级别的压力。
芯片当年的发展,有摩尔定律,
而大模型,大家也在研究这样的“定律”。
清华NLP实验室刘知远教授团队,最新提出大模型的密度定律(densing law):模型能力密度随时间呈指数级增长,2023年以来能力密度约每3.3个月(约100天)翻一倍。
但是
一个实际例子
问题描述 输入两句话:A:所有猫都是哺乳动物A: \text{所有猫都是哺乳动物}A:所有猫都是哺乳动物 B:所有哺乳动物都会下蛋B: \text{所有哺乳动物都会下蛋}B:所有哺乳动物都会下蛋任务:判断 AAA 和 BBB 是否相容。大模型的处理:语料驱动:基于训练数据,模型知道“哺乳动物一般不会下蛋”,但也存在例外(如鸭嘴兽)。相容性评估:模型可能会输出类似:“AAA 和 BBB 部分相容,但存在不一致的例外(鸭嘴兽)”。局限性:模型依赖语料库中的知识,而不是严格的逻辑推理。如果输入内容非常专业或矛盾明显,它可能无法给出完全正确的判断。
大模型不会在对话过程中有实际的学习,它依赖非常庞大的语料
对于企业来说,对于大模型的期待,应当是专业模型,解决专家问题,而不是普通员工的任务都被替代,日常的致辞、发言、方案 这些大模型最容易而且会长期给出似是而非,模棱两可的内容,甚至参考价值都不大的内容。
为什么大模型先天不足以理解因果性?1. 训练数据的本质是相关性大模型的训练依赖于大规模文本数据,这些数据只是描述了现实世界中事物之间的相关性,但很少明确标注出因果关系。例如,训练数据中可能包含“下雨了,人们打伞”的句子,但它并没有告诉模型“下雨是打伞的原因”。因果关系需要更高层次的理解,而大模型仅基于统计规律学习,无法直接从数据中区分出哪些是相关性、哪些是因果性。2. 模型的架构偏向于模式匹配Transformer 等架构的核心在于捕捉输入数据中的模式,通过概率分布预测输出。它并不具备逻辑推理链条,也不会主动推测“为什么”某件事情会发生,只会根据训练数据选择最可能的结果。3. 因果性需要领域知识与推理规则因果推理常常需要清晰的规则和领域知识支持。例如,“开水会烫手”不仅是语言现象,也是物理现象的结果。但大模型缺乏真实世界的背景知识和推理能力,它无法像人类那样,通过常识、经验和实验来验证因果关系。相关性 vs 因果性:本质区别相关性:两件事物同时发生或具有统计上的联系,但未必有直接的因果关系。例子:“冰淇淋销量增加”与“溺水事件增多”可能相关,但真正的原因是“夏天气温升高”。因果性:一件事是另一件事的直接原因,需要有明确的机制或解释。例子:“温度升高”导致“冰淇淋销量增加”和“溺水事件增多”。大模型的训练本质上是捕捉语言中的相关性,因此,当它回答问题时,输出往往基于概率最高的相关模式,而不是明确的因果逻辑。
各行各业都会出现很多的专业模型,这些会进一步降低专业分析的门槛,就像如今每个围棋爱好者都有一个媲美职业超九段的AI 可以随时用是一样的
回到野猪和比特币上来,大模型是在海量文本数据上训练的,学习了语言中的统计模式。这意味着:
它知道哪些词或短语经常出现在一起(共现概率)。
通过上下文,预测下一个最有可能出现的词或句子。
即使上下文没有明确的逻辑标准,模型会基于训练数据中类似情境的概率分布,生成一个最符合模式的结果。
在这篇文章里,动物形象、虚拟货币 分别成了帮助大家理解大模型的案例。
最后的最后
比特币你可以持仓,大模型时代你可以做什么?
各行各业都开始大模型泛滥,你怎么看?