在过去几十年中,没有什么技术比人工智能(AI)更吸引眼球了。但细看之下,这其中多的是噪音,真正的突破却被大众忽视。AI的炒作周期并非新鲜事,这种现象在其他新兴技术中也常见。
随着ChatGPT的发布,一切都发生了翻天覆地的变化,AI成了每个商业讨论的焦点。但并非所有的噪音都是好事,许多重要的东西在这股热潮中被遗漏了。今天,我们将探讨目前AI技术和商业领域的现状,特别关注生成性AI,因为它是过去一年中被炒得最火的话题。
分歧之大
关于大型语言模型(LLMs),主要有三种观点,让我们仔细看看:
立场一(怀疑主义)
有些科学家,如Chomsky,将LLMs视为高级的统计工具,并不认为它们等同于智能。他们认为这些机器见过如此多的数据,以至于能对我们可能提出的任何问题给出回应。从数学上讲,它们为我们可能提出的每一个问题计算了条件概率。
我的观点:这种看法可能低估了数据建模模仿认知的细微方式,尽管它并非真正的理解。我们怎么知道人类不是在做同样的事情,我们不断通过各种感官接收数据。因此,区分理解与模仿理解也可能需要发展某种新型智能。
立场二(希望的洞察)
Ilya Sutskever(ChatGPT的创造者)和Hinton似乎认为,LLMs已经发展出反映人类经验的内部模型。他们的立场是,由于互联网上的文本是人类思想和经验的表达,通过训练这些模型预测下一个词,这些模型似乎建立了对人类世界和经验的理解。它们在某种真实意义上变得智能,或至少看起来很智能,并且像人类一样创建了世界模型。
我的观点:这可能过分强调了LLMs的深度,将复杂的数据处理误认为是真正的理解,并忽视了这些模型中缺乏意识体验或自我意识的事实。此外,如果它们已经建立了这些内部世界模型,那为何它们在一些非常简单的任务上还是会彻底失败,这些任务本应与这些内部世界模型保持一致?
立场三(实用主义)
许多科学家,如LeCun和Kambhampati,将LLMs视为有力的辅助工具,但不认为它们具有类似人类的智能,或者在经验或内部世界模型方面与人类智能接近。LLMs在记忆和检索能力上虽然令人印象深刻,但在真正的推理和理解方面则远远不够。他们认为,不应该将LLMs拟人化,或误认为它们具有类似人类的智能。它们在辅助任务如写作方面表现出色,但缺乏类似于人类“系统2思维”的更深层次的推理过程。
金融的挑战:AI的经济学问题
关于AI,最大的问题是金融方面,许多人并不理解制造这些系统和基于这些技术构建产品的经济学原理。
许多公司公开宣称他们的目标是实现通用人工智能(AGI)。你还记得Sam Altman荒谬的主张吗?他想筹集7万亿美元来构建AGI。但如果你现在看他们的使命,你会发现已经稍有变化。没有一个系统是独立存在的,没有合适的用例,我们不能只是投资希望建立一个能改变人类的东西。
再深入分析一下金融问题,想象一下,在给了我们亲爱的Sam Altman 7万亿美元之后,我们有了一个AGI。根据定义,它将能够完成大多数人类能做的所有类型的任务。现在,如果这样的系统被部署,人类将无所事事,没有什么可买或可卖的。假设你使用这个AGI制造了最好的产品,但没人有钱买,如果没有人买,这些系统也将无法生存。即使这些系统也将需要大量的资源。
我知道你们中的一些人可能会争辩说可以实行全民基本收入(UBI),但即使是这样,我们也需要销售服务和产品,如果没有人有工作,他们将如何支付税款并为UBI筹集足够的财政支持?如果AGI大规模部署,大多数人将失去工作,这将导致整个国家的金融循环崩溃。
除非机器人具有欲望成为消费者,否则全球经济体系将会崩溃。
忘掉假想的AGI用例,即便是现在,各公司也在以AI的名义销售一切。我最近开玩笑说,告诉我什么不是作为AI在卖的。
许多初创企业只是OpenAI API的一个外壳,他们没有实际业务,只是在烧投资人的钱,而且这种趋势已经开始显现。
AI的魔力正在慢慢消退,我敢肯定你可以呈现不同的图表显示AI似乎还在增长,但绝不是以前的指数级了。
可能导致AI泡沫破裂的因素包括:
不可持续的估值。估值过高的AI公司可能没有足够的盈利或增长潜力来证明它们的高估值。
缺乏盈利的收入来源。许多AI公司未能显示出其AI投资的显著收入增长。没有清晰的货币化策略,持续的重大支出可能变得不可持续。
监管挑战。与AI安全、伦理和数据隐私相关的日益严格的审查和监管可能会减缓AI发展的势头并影响公司估值。
经济衰退。更广泛的经济衰退可能导致对AI的投资减少,进一步加剧股价的下跌。 我并不是说公司不会通过AI赚钱,但能够赚钱的公司将寥寥无几。像NVIDIA这样的核心技术建设者将获得巨大利润,其他公司则可能在几年内消失。除非你真正用AI解决问题,否则你不会赚到钱。目前许多公司处于拥有技术但没有问题可解的状态。要建立成功的业务,情况本应正好相反。并不是每个业务都会创造新的类别。
另外需要记住的是,每项技术的适应也有其局限。人们能多快地抓住并使用它来创造新的产品和服务也非常关键。
未来AI系统的展望
关于AI的未来,目前有三篇博客可以详细了解当前和未来的AI系统:
为何LLMs无法规划且不太可能达到AGI?
单靠规模扩大不会使LLMs成为AGI或超智能
超智能的隐藏限制及为何可能永远不会实现
虽然AI的神奇正在慢慢消退,我们应当记住,每项技术的适应也有其局限性。人们如何迅速把握并使用它来创造新的产品和服务也同样重要。
最近,有研究显示,尽管管理层对AI的生产力提升期望很高,但许多使用AI的员工表示,AI增加了他们的工作量,并未带来预期的生产力提升。这说明技术的能力受其大众使用的限制。
AI领域的下一步
可能的下一阶段是AI及其相关产品和服务的兴趣稀释。许多进入该领域想快速赚钱的人很快就会发现自己处境不妙。只有少数真正对该领域感兴趣的人会留下来,他们将开发出可控的AI系统,开发出针对具体问题的、可解释的新型系统。我个人希望看到的是,我们不仅能理解和预测系统的行为,还能控制它们。
最后,让我们以两个例子结束这篇博客:AI朋友和AI女友。这是AI最无用的用例,绝不应该被正常化,只应在极端心理健康问题的情况下推荐。这种不受管制的空间将创造出更多心理疾病和脱节的一代,他们将需要其他AI解决方案,这些方案将要求他们重新回归人际关系和自然。
至于AI在教育中的应用,尽管有了所有这些AI工具,人们并没有变得更聪明,相反,他们的注意力更短暂了,学习时间减少了,他们的思维只是被分散了。大多数人并没有将通过AI工具节省的时间用于更有生产力的事情,而是浪费在了更多无用的事务和娱乐上。所以,总的来说,实际上什么也没有改变。自从GPT发布以来,大多数人并没有成为优秀的作家或小说家,实际上恰恰相反,人们甚至失去了语言和写作的基本技能。