AI太强大?AI公司亲自上演‘狼来了’!

文摘   2024-11-19 23:16   广东  

当人工智能下棋战胜世界冠军、生成艺术作品媲美人类创作时,我们忍不住问:AI会不会最终超越人类,甚至取代我们?在这场TED演讲中,计算机科学家詹妮弗·戈尔贝克拨开迷雾,直面这些热门话题,用冷静的分析和风趣的语言解读了“人工智能崛起”背后的真相。

她拆解了科技公司炒作“通用人工智能”的目的,指出了AI当前最大的短板——不靠谱和偏见。同时,她揭示了AI的发展障碍,比如数据枯竭和高昂成本,并提醒我们与其幻想科幻电影中的AI接管世界,不如聚焦当下AI引发的实际问题,比如虚假信息和决策偏见。

而在担忧AI抢走工作的讨论中,她提出了发人深省的观点:AI无法取代人类真正的价值——感情、创造力和与人建立联系的能力。人类的独特性是无可复制的。

通过这场演讲,你将重新审视AI的发展现状,深刻认识到,未来虽然充满挑战,但我们真正应该担心的并不是“AI统治”,而是如何让技术为人类福祉服务。

准备好了吗?让我们一起倾听戈尔贝克的洞见,找到在AI浪潮中保持清醒的方法!

以下是演讲完整内容:

人工智能真的要超越人类了吗?

我们已经研发出在特定任务上表现优于人类的人工智能。比如,有能下棋并击败人类特级大师的人工智能。但自从几年前生成式人工智能向公众推出以来,关于通用人工智能(AGI)的讨论越来越多。通用人工智能指的是在各种任务上都能达到或超过人类水平的人工智能,就像我们人类一样。而那些思考通用人工智能的人担心,如果我们达到这种技术水平,意味着什么。

为什么科技公司自己提出要监管人工智能?

现在,科技行业的人出来说:“我们正在研发的人工智能非常强大和危险,对文明构成威胁。”他们甚至向政府建议:“也许你们需要监管我们。”通常情况下,当一个行业发明了一种强大的新工具时,他们不会说它对人类构成生存威胁,并且需要加以限制,那么为什么我们会听到这样的言论呢?

我认为主要有两个原因:

  • 为了赚钱!他们想让大家觉得他们的人工智能很牛,这样投资者才会投钱。

  • 为了吸引眼球!人工智能超越人类,这听起来就像科幻电影一样,很刺激!

事实上,这个想法很有趣,以至于它成功地转移了人们对人工智能在现实世界中已经造成的问题的注意力。我们越是思考这些不太可能发生的未来,我们花在思考如何纠正深度伪造,或者思考人工智能正在被用来决定是否释放囚犯,并且我们知道它带有种族偏见的时间就越少。

通用人工智能真的离我们很近吗?

但我们真的接近实现通用人工智能吗?有些人认为是这样。埃隆·马斯克说我们将在一年内实现。他几周前发了这个帖子。但与此同时,谷歌推出了他们的眼睛搜索工具,它应该直接给你答案,这样你就不用点击链接了,但它运行得并不顺利。[“我应该吃多少石头?”] [“……至少一份卵石、晶洞或砾石……”] 请不要吃石头!

当然,这些工具会变得越来越好。但如果我们想要实现通用人工智能,或者如果它们想要从根本上改变我们的工作方式,我们需要看到它们的能力持续大幅提升。这可能是一种途径。但也有可能我们现在看到的,是这些工具基本上已经达到了它们的能力极限,未来只是在平台期上的渐进式改进。

因此,为了理解人工智能的未来,我们需要透过围绕它的所有炒作,看看技术上能实现什么。我们还需要思考哪些领域需要担心,哪些领域不需要。如果我们想要实现对人工智能的炒作,我们必须解决的一个主要挑战是可靠性。这些算法经常出错,就像我们看到的谷歌那样。在这些糟糕的搜索结果被广泛传播后,谷歌出来说他们不知道如何解决这个问题。

人工智能最大的问题:不靠谱!

我每天都使用ChatGPT。我写一份简报,总结极右翼留言板上的讨论,所以我下载数据,ChatGPT帮我写摘要。这让我比手动操作效率更高。但我每天都必须纠正它,因为它会误解一些内容,或者忽略上下文。因此,我不能仅仅依靠它来完成工作。

而这种可靠性非常重要。可靠性中的一个分支是人工智能幻觉,这是一个很好的技术术语,用来描述人工智能经常编造东西的事实。我在我的简报中就遇到过这种情况。我问ChatGPT,有没有人在威胁暴力?如果有,请给我引文。它给出了三个非常明确的暴力威胁,但听起来一点也不像人们在这些留言板上说话的方式。我回到数据中查找,发现根本没有人说过那些话。它只是凭空捏造的。

如果你使用过人工智能图像生成器,你可能也遇到过这种情况。我让它给我一个人们手牵手的特写。这是一个幻觉,而且是一个令人不安的幻觉。

如果人工智能想要不负众望,我们就必须解决这个幻觉问题。我认为这不是一个可解决的问题。根据这项技术的工作方式,有些人说我们将在几个月内解决这个问题,但没有技术上的理由认为情况会是这样。因为生成式人工智能总是会编造东西。当你问它一个问题时,它是在你提问时从头开始创造答案或创造图像。它不像搜索引擎那样在页面上找到正确的答案。所以因为它的工作就是每次都编造东西,我不知道我们是否能够让它编造正确的东西,而不编造其他东西。这不是它被训练去做的事情,我们距离实现这一点还很遥远。

事实上,有些领域他们正在非常努力地尝试。一个对人工智能充满热情的领域是法律领域,他们希望人工智能能帮助撰写法律简报或进行研究。有些人已经通过惨痛的教训发现,他们现在不应该用ChatGPT写法律简报并提交给联邦法院,因为它只会编造听起来正确的案例。这是一种快速让法官对你生气并让你的案件被驳回的方法。

现在有一些法律研究公司正在宣传无幻觉的生成式人工智能。我对此非常怀疑。斯坦福大学的研究人员实际上进行了检查,他们发现这些无幻觉工具中表现最好的,仍然有17%的时间出现幻觉。所以一方面,我们创造了一个可以向其提出任何问题的工具,并且60%、70%甚至80%的时间它都能给我们一个合理的答案,这是一项伟大的科学成就。但如果我们依赖使用这些工具,而它们有20%或30%的时间是错误的,那么就没有模型能真正发挥作用。

想要人工智能更好,得解决两个问题:数据和技术

这引导我们思考如何让这些工具真正有用。因为即使你不相信我,认为我们会解决这个幻觉问题,我们会解决可靠性问题,这些工具仍然需要变得比现在更好。要做到这一点,他们需要做两件事。一是更多的数据,二是技术本身必须改进。

那么我们从哪里获取数据呢?因为他们已经把网上的可靠内容都拿走了。如果我们找到的数据是他们已经拥有的两倍,这并不意味着他们会变得聪明两倍。我不知道是否有足够的数据,而且由于生成式人工智能在网上制造低质量内容方面非常成功,这个问题更加复杂了。这些内容包括社交媒体上的机器人、虚假信息,以及那些实际上没有说什么内容,但有很多广告并且在搜索结果中排名很高的搜索引擎优化页面。

如果人工智能开始在它生成的内容上进行训练,我们从几十年的AI研究中知道,它们只会变得越来越糟。这就像数字版的疯牛病。

假设我们解决了数据问题。你仍然需要让技术变得更好。我们看到在过去几年里,有500亿美元投资于改进生成式人工智能。这带来了30亿美元的收入。所以这是不可持续的。当然,现在还处于早期阶段,对吧?公司可能会找到开始使用这项技术的方法。但是它是否足够有价值,能够证明购买价值数百亿甚至数千亿美元的硬件来让这些模型变得更好是合理的?我认为不是。

AI会抢走我们的工作吗?

我们可以通过一些实际的例子来弄清楚这一点。这让我们思考哪些领域需要担心,哪些领域不需要。因为每个人都担心的一个问题是,人工智能会抢走我们所有的工作。很多人告诉我们这将会发生,人们对此感到担忧。我认为这其中存在一个根本性的误解。

想象一下这个场景。我们有一家公司,他们可以雇佣两名软件工程师。如果我们给这些工程师一些生成式人工智能来帮助编写代码,这是它非常擅长的事情,假设他们的效率提高了两倍。这是一个很大的高估,但这会让计算变得简单。

在这种情况下,公司有两种选择。他们可以解雇其中一名软件工程师,因为另一名现在可以做两个人的工作,或者他们本来就可以负担得起两名员工,现在他们的效率提高了一倍,所以他们赚了更多的钱。那么为什么不保留他们两个,并获得额外的利润呢?这个计算失败的唯一原因是如果人工智能非常昂贵,以至于它不值得。但这就像人工智能每年花费10万美元来做一个人的工作。

这听起来非常昂贵。实际上,已经有这些工具的开源版本,它们成本低,公司可以自行安装和运行。它们虽然没有旗舰模型表现得好,但如果它们有一半的效果并且非常便宜,你难道不会选择它们,而不是每年花费10万美元做一个人的工作的模型吗?你当然会。

因此,即使我们解决了可靠性问题,解决了数据问题,让模型变得更好,这些廉价版本存在的事实表明,公司不会花费数亿美元用人工智能取代他们的员工。

真正应该担心的是:AI的偏见

但是,有一些领域我们需要担心。因为如果我们看看现在的人工智能,有很多问题我们还没有解决。我已经从事人工智能研究超过20年,我们知道的一件事是,如果我们在人类数据上训练人工智能,人工智能就会采用人类的偏见,而且我们无法解决这个问题。我们已经看到这些偏见开始出现在生成式人工智能中,而人们的直接反应总是,好吧,让我们设置一些护栏来阻止人工智能做有偏见的事情。

但是,第一,这永远无法解决偏见,因为人工智能会找到绕过它的方法。第二,护栏本身可能会导致问题。谷歌有一个人工智能图像生成器,他们试图设置护栏来阻止结果中的偏见。结果发现这让它变得不正确。这是一个关于签署独立宣言的图片的请求。这是一张很棒的图片,但它在事实上是不正确的。因此,在试图阻止偏见的过程中,我们最终创造了更多的可靠性问题。

我们一直无法解决这个偏见问题。如果我们考虑推迟决策,用这项技术取代人类决策者并依赖它,而我们又无法解决这个问题,那么这就是我们应该担心的事情,并且要求在它因为看起来很性感而被广泛采用和使用之前就找到解决方案。

人之所以为人,不仅仅是工作

我认为还有一件事是这里所缺少的,那就是我们人类的智慧并不仅仅由我们在工作中的生产力来定义。从根本上说,它是由我们与他人建立联系的能力来定义的。我们拥有情绪反应的能力,将我们的过去与新信息整合在一起,并创造性地提出新事物的能力。而这是人工智能现在做不到,将来也永远做不到的事情。它也许可以模仿它,并给我们一个廉价的仿制品,模拟真正的联系、同理心和创造力。但它无法做到我们人性的核心内容。

这就是为什么我并不真正担心通用人工智能会接管文明。但如果你在听完这些之后仍然不相信我所说的一切,并且现在你担心人类会被人工智能霸主毁灭,那么要记住的一件事是,尽管电影中是那样描绘的,但真实情况并非如此。






关注《森林聊AI商业》公众号


了解 AI 如何塑造商业的未来





森林聊AI商业
每日一起了解,AI如何改变科技世界
 最新文章