近日,全球领先的LLM AI公司OpenAI发布了全球首个能用文本生成视频的应用模型,叫做Sora。又震撼了世人!
比如,以下“一只虎斑猫穿过树林”视频100%由Sora生成。
虽然ChstGPT强大,但其仍有一个致命缺陷……
在OpenAI官方发布的GPT-4技术报告中其提到,尽管GPT-4功能非常强大,但是其仍然存在与先前早期版本GPT模型一样的局限性,GPT-4仍然存在生成”幻觉“的问题,并且会出现推理错误的情况。
而且,最近UC伯克利的一项研究,也揭示了GPT4这种LLM大语言模型人工智能系统的缺乏一种能力,即:缺乏从经验中学习因果并重构的能力!
其因果推理能力竟然比不上一个儿童!所以出现了「一些孩子们可以,LLM却做不到的事。」
不少人表示,这些LLM不就是一个又一个智能体嘛。图片、文本,什么都能生成,这多聪明。
甚至,他们还会在口语表达中暗示了这种拟人化的夸赞——一「个」AI,就好像咱们说一个人一样。
UC伯克利的研究人员则认为,这么想就错了。
从原理上讲:LLM AI汇总了以前由人类生成的大量信息,并从中提取归纳。但其给不出对未知的设想与推理。
所以,LLM AI并不拟人。和真人的差距在于缺乏从经验中学习因果并重构的能力!可以理解LLm AI有点像鹦鹉一样。
人类通过外部世界获得的新证据可以从根本上修改以往的因果关系。
而LLM AI依赖于大量现有数据的、相对简单的、大型语言和视觉模型则无法做到。
不过,一些AI也已经尝试把因果推断和理论形成整合到其学习机制中,以设计的更像人类。
当然,模仿及传承,在人类智慧传递发展中起着重要作用。LLM AI模型的确拥有读取天量数据的优势,所以让人们觉得它无所不知。但目前的ChatGPT等LLM AI带给人们的“震撼”,掩盖了它的不足。
目前大语言模型AI在训练过程中,或是目标函数中,没有设计任何有关履行感知、因果推断或理论形成等寻求真理的系统的认识功能。
它们的输出预测概率也并不会区分认识不确定性(epistemic uncertainty)(这点实际上与知识的缺乏有关,是可以通过更多的训练数据来解决的),和偶然不确定性(aleatoric uncertainty)。
这就带来了LLM AI系统的「幻觉」的问题。
简而言之,高度模仿能力并不意味着创新能力。
要知道,如果没有创新的能力,光靠模仿本身将毫无用处。正是创新和模仿的结合才能实现人类文化和技术的进步。
当然,模仿和传输也可能涉及某些种类的泛化和新颖性。
LLM也会产生类似的泛化,有时会从已知的行动中泛化,来产生某种创新。
然而,想要输出足以应对新问题和新环境的创新,则需要LLM超越获取的信息,和从这些给定信息中推理出新东西。这些推理可能从现有的因果模型出发,生成与之前观察到的因果非常不同的新因果,或者可能激发对外部世界的新的探索。
从人工智能的角度来看,模仿涉及一种插值泛化,即在已知的范围内,技能和知识在各种背景下得以利用、模拟和分享。
而另一方面,创新则反映了一种更为外推性的,或超分布(out-of-distribution)的泛化。
LLM AI虽然无法推理,但人类可以借助它的信息能力来进行创新。
比如:设计prompt给LLM 模型,让其生成语法正确的文本。
这是当下LLM AI的缺陷!
也为人工智能未来的发展,提出了需要解决的问题!
如果知道了LLM的缺陷,绕开其缺陷,用好其强项,也会有助于提升我们的工作与生活效率!
从投资角度看,算力的需求,又要大幅提升才行了!人工智能将成为未来二十年的主流赛道!
导读:
ChatGPT的创始人,还聚焦于核聚变能源及并希望为每个地球人发生活费的想法!