美国人工智能ChatGPT-4又出了个视频神器SORA,迭代神速!但其仍有一个致命缺陷……

文摘   2024-02-17 01:33   匈牙利  

近日,全球领先的LLM AI公司OpenAI发布了全球首个能用文本生成视频的应用模型,叫做Sora。又震撼了世人!


比如,以下“一只虎斑猫穿过树林”视频100%由Sora生成。


虽然ChstGPT强大,但其仍有一个致命缺陷……


在OpenAI官方发布的GPT-4技术报告中其提到,尽管GPT-4功能非常强大,但是其仍然存在与先前早期版本GPT模型一样的局限性,GPT-4仍然存在生成”幻觉“的问题,并且会出现推理错误的情况。


而且,最近UC伯克利的一项研究,也揭示了GPT4这种LLM大语言模型人工智能系统的缺乏一种能力,即:缺乏从经验中学习因果并重构的能力!


其因果推理能力竟然比不上一个儿童!所以出现了「一些孩子们可以,LLM却做不到的事。」

不少人表示,这些LLM不就是一个又一个智能体嘛。图片、文本,什么都能生成,这多聪明。


甚至,他们还会在口语表达中暗示了这种拟人化的夸赞——一「个」AI,就好像咱们说一个人一样。


UC伯克利的研究人员则认为,这么想就错了。


从原理上讲:LLM AI汇总了以前由人类生成的大量信息,并从中提取归纳。但其给不出对未知的设想与推理。


所以,LLM AI并不拟人。和真人的差距在于缺乏从经验中学习因果并重构的能力!可以理解LLm AI有点像鹦鹉一样。


人类通过外部世界获得的新证据可以从根本上修改以往的因果关系。


而LLM AI依赖于大量现有数据的、相对简单的、大型语言和视觉模型则无法做到。 


不过,一些AI也已经尝试把因果推断和理论形成整合到其学习机制中,以设计的更像人类。


当然,模仿及传承,在人类智慧传递发展中起着重要作用。LLM AI模型的确拥有读取天量数据的优势,所以让人们觉得它无所不知。但目前的ChatGPT等LLM AI带给人们的“震撼”,掩盖了它的不足。


目前大语言模型AI在训练过程中,或是目标函数中,没有设计任何有关履行感知、因果推断或理论形成等寻求真理的系统的认识功能。


它们的输出预测概率也并不会区分认识不确定性(epistemic uncertainty)(这点实际上与知识的缺乏有关,是可以通过更多的训练数据来解决的),和偶然不确定性(aleatoric uncertainty)。


这就带来了LLM AI系统的「幻觉」的问题。


简而言之,高度模仿能力并不意味着创新能力。


要知道,如果没有创新的能力,光靠模仿本身将毫无用处。正是创新和模仿的结合才能实现人类文化和技术的进步。


当然,模仿和传输也可能涉及某些种类的泛化和新颖性。


LLM也会产生类似的泛化,有时会从已知的行动中泛化,来产生某种创新。

然而,想要输出足以应对新问题和新环境的创新,则需要LLM超越获取的信息,和从这些给定信息中推理出新东西。这些推理可能从现有的因果模型出发,生成与之前观察到的因果非常不同的新因果,或者可能激发对外部世界的新的探索。


从人工智能的角度来看,模仿涉及一种插值泛化,即在已知的范围内,技能和知识在各种背景下得以利用、模拟和分享。


而另一方面,创新则反映了一种更为外推性的,或超分布(out-of-distribution)的泛化。


LLM AI虽然无法推理,但人类可以借助它的信息能力来进行创新。


比如:设计prompt给LLM 模型,让其生成语法正确的文本。


LLM是否能够发现新的因果关系并利用它们来设计新工具呢?我们已经反复提到,发现新工具的能力取决于是否能够推断出新的因果关系。

大量研究表明,即使是非常年幼的儿童也擅长发现这种关系。

但各种当下的LLM被要求选择一种新功能工具来解决问题时,他们不如人类能力强(GPT-4平均75.9%,gpt-3.5-turbo平均58.9%,davinci平均8.87%,Claude平均58.16%,Flan平均45.7%)。

仅仅通过大量语言学习LLM,不足以实现工具创新。


这是当下LLM AI的缺陷!


也为人工智能未来的发展,提出了需要解决的问题!

如果知道了LLM的缺陷,绕开其缺陷,用好其强项,也会有助于提升我们的工作与生活效率!


从投资角度看,算力的需求,又要大幅提升才行了!人工智能将成为未来二十年的主流赛道!


导读:


ChatGPT的创始人,还聚焦于核聚变能源及并希望为每个地球人发生活费的想法!











多盟
多盟-喻意为\x26quot;多方联合,多层次的服务,合则赢”。多盟平台,由华人精英组成成,立足欧盟,联接欧盟中国美国资源,为中国出海企业及高净值人群提供包括跨境并购、跨境投资、家族财富全球配置、国际业务当地尽职调查及风险控制服务。
 最新文章