万字实录|Anthropic掌门人阿莫迪专访:AI不仅是数学,风险应该慎重对待,能完成人类90%-99%的工作

文摘   2024-11-24 19:27   浙江  

👇关注公众号后设🌟标,掌握第一手AI新动态

本文访谈内容整理自Anthropic CEO Dario Amodei接受Newcomer Youtube频道专访,公开发表于2024年11月21日。原始内容参考:https://www.youtube.com/watch?v=CvHx3VNjr90

达里奥·阿莫迪接受Newcomer专访

内容导读

本文主要围绕大型语言模型(LLM)的未来发展、Anthropic公司的战略以及人工智能的安全监管问题展开,主要观点如下:

  1. LLM发展趋势:  阿莫迪认为LLM的发展没有放缓迹象,符合过去十年的规模定律。虽然训练更大模型需要更高质量的数据和更精细的工程设计,但并没有遇到根本性瓶颈。他预测未来模型能力将提升至研究生或专业水平,尤其在编码领域。
  2. Anthropic的战略: Anthropic专注于开发更强大的模型,并计划在未来几个月内发布更好的模型。公司战略偏向于企业级市场,通过提供API服务,让企业在其模型上构建各种应用,而非直接面向消费者市场。他们目前不打算开发图像和视频生成模型。Anthropic 致力于通过技术竞争和建立良好声誉来吸引人才,并影响行业发展方向(“争夺榜首”策略)。
  3. 人工智能安全与监管: 阿莫迪认为乐观和悲观并非合适的评价维度,更重要的是关注技术带来的极端变化。他既看到了AI在解决重大问题(如疾病)上的潜力,也担忧其滥用的风险。他主张有针对性的精准监管,重点关注生物、网络、核武器和自主性风险等重大威胁,避免过度监管阻碍AI发展。 他认为AI模型最终将需要某种形式的控制机制,防止其不受控制地运行。
  4. AI与人类创造力:  阿莫迪认为,即使未来AI的创造力远超人类,人类仍将在创造过程中扮演重要角色,这符合“比较优势”的经济学原理。AI将成为人类的强大工具,而非完全取代人类。
  5. Anthropic的独立性: 阿莫迪表示Anthropic致力于保持独立运营,并通过内部机制(如长期利益信托)来确保其负责任发展。虽然与谷歌、亚马逊等公司合作,但独立性对实现公司使命至关重要。
  6. 合成数据的重要性: 阿莫迪对合成数据在AI训练中的作用持乐观态度,认为其可以极大推动AI发展,如同AlphaGo Zero的例子所示。
  7. 强人工智能的临近: 阿莫迪预测,具备诺贝尔奖获得者水平能力的强人工智能可能在2025年或2026年出现,这将彻底改变人类社会。

达里奥·阿莫迪简介

达里奥·阿莫迪(Dario Amodei)是一位在人工智能领域享有盛誉的计算机科学家和企业家。他最为人知的是创立了人工智能安全公司Anthropic,这家公司致力于开发更安全、更可解释、更可对齐的人工智能系统。

在创立Anthropic之前,阿莫迪是OpenAI的研究科学家,在那里他为该公司早期大型语言模型的开发做出了重要贡献。 他尤其关注人工智能安全和对齐问题,即如何确保人工智能系统按照人类的意图行事并避免产生有害后果。 这种关注直接促使他离开OpenAI,并与他的妹妹丹妮拉·阿莫迪(Daniela Amodei)以及其他同事共同创立了Anthropic。

Anthropic的核心目标是构建更可靠和可控的人工智能系统,并积极探索如何解决人工智能可能带来的潜在风险。 他们开发的模型,如Claude,被认为在安全性和可控性方面有所提升,与其他大型语言模型相比,展现出更低的出错率和更少的偏见。阿莫迪及其团队的工作为人工智能安全领域带来了重要的进展,也为未来人工智能的发展方向提供了新的思路。 他的贡献被广泛认可,为推动人工智能技术的负责任发展做出了持续努力。

访谈全文

埃里克·纽科默: 达里奥,非常感谢你来到这里。

达里奥·阿莫迪: 谢谢邀请。好的,我们今天一直在讨论同一个主题,你实际上知道答案。大型语言模型(LLM)会变得更聪明吗?我们是不是遇到了瓶颈?我们是不是都在无缘无故地疯狂?发展轨迹如何?

达里奥·阿莫迪:  我关注这个领域十年了,并且是首批记录人工智能规模定律和规模化的人之一。在我看来,该领域中的一切都符合我过去十年所见,而且没有迹象表明发展会放缓。

首先,我认为我们已经看到的这类推理模型以及测试时计算的使用,将继续扩展。我认为,即使在当前的规模定律中,一些人,尤其是那些没有参与或关注该领域的人,也没有意识到的一点是,每次我们训练一个新模型时,都会面临挑战。规模定律并不意味着每次训练更大的模型都会获得更好的性能。相反,它表明训练更大的模型需要高质量的数据、精确的工程设计,以及通常需要新的想法或优化。

这些优化通常是微小的调整,例如纠正数值优化或确保浮点精度得到适当处理。我相信,随着我们投入更多资源,做好这项工作的工程复杂性正在增加。这就是为什么公司需要壮大规模并招聘更多人才的原因。但是,我没有看到任何证据与我们在该领域建立的科学假设相矛盾。

埃里克·纽科默: 如果存在障碍,是数据问题吗?是资金问题吗?还是仅仅是数据处理方法的问题?

达里奥·阿莫迪:  再说一次,我认为不存在障碍。

埃里克·纽科默:  好的。那么你会发布一个新的模型吗?

达里奥·阿莫迪:  你知道,我的意思是,不要确切地谈论模型发布日期,但是,总的来说,我希望,继续在几个月内推出更好的模型。好的。X个月。

埃里克·纽科默:  当你考虑未来的模型以及你希望看到的,不一定是下一个模型,而是你希望你的模型能够实现而现在还无法实现的目标时,你会想到什么?

达里奥·阿莫迪:  是的,我希望看到模型在专业任务上的表现更好。你知道,我曾经说过,2023年的模型可能只有高中的能力水平。我们今天看到的模型,它们给人一种实习生水平或优秀本科生水平的感觉。如果我们再过一年,我希望看到模型达到几乎研究生或专业水平。我们在编码方面开始达到这个水平,模型是优秀的编码助手,但我认为它们会做得更好。看看今年到目前为止发生的事情,我们在SWEBench上的得分从大约3%上升到50%,SWEBench是对软件工程活动的真实世界快照,例如模拟GitHub的pull requests。我认为明年我们会进一步提高。

埃里克·纽科默: 你希望Anthropic的文本框能够解决编码问题,并取代游标或Copilot之类的工具吗?或者你计划构建独立的产品?或者,当你特别考虑这个编码问题时,你的方法是什么?

达里奥·阿莫迪:  是的,我认为两者之间的区别并没有你想象的那么明显,对吧?越来越多的任务、越来越多的自主权被移交给人工智能系统。但至少在短期和中期内,人类始终扮演着某种角色,这在经济学中被称为比较优势的概念,对吧?即使人工智能系统完成了人类90%的工作,人类也会更多地投入到剩下的10%以及补充这90%的新事物中。我的意思是,也许有一天,完全端到端的人工智能系统将完成我们屋里每个人,包括我和你所做的一切。但是,你知道,我认为那还比较遥远。所以我实际上认为自主性将会增加,但总是会有人类参与其中。人类将始终是推动创造过程的人。

埃里克·纽科默:  你被认为是一个有点悲观的人,但你写了《爱的恩典机器》(Machines of Loving Grace)来表达某种乐观情绪。我的意思是,你仍然是我们所熟知并喜爱的那位悲观主义者吗?你目前对人工智能的恐惧态度如何?

达里奥·阿莫迪:  你知道,我认为我的一个观点是,乐观与悲观也许不是正确的维度,对吧?我认为极端变化与缺乏极端变化也许是一个相关的维度。长期以来,我一直预测该领域将发生大量颠覆和极端变化。我继续做出这一预测。也许我会是对的,也许我会是错的。但如果你确实相信会发生很多颠覆,那么你可以想到一些可能发生的美好事情。

埃里克·纽科默:  每个人都应该阅读这篇文章,但你认为可能发生的好事是什么?

达里奥·阿莫迪:  在从事人工智能之前,我是一名生物学家和神经科学家,那是十年前的事了。我发现该领域之所以困难,进展缓慢,原因之一就是该领域的复杂性。如果我们考虑细胞的所有调节过程、从DNA产生的所有蛋白质以及它们如何相互作用,就会清楚地发现,你曾经处理过的最复杂的代码库与细胞的复杂性相比根本不算什么。

然而,从根本上说,它并非超出了我们的智力范围。只是有很多事实,以及这些事实之间有很多相互作用。这种复杂性似乎正是人工智能可以解决的问题类型。

因此,我乐观地认为,癌症和阿尔茨海默病等困扰我们数千年的疾病,以及限制我们寿命的衰老过程本身,可能会屈服于人工智能系统。这些系统可能会理解这些问题的复杂性,并确定如何有效地进行干预。

埃里克·纽科默:  这些数据准备好供机器处理了吗?我认为,我对你作品的一个印象是,好吧,我们可能会获得超级智能,但人类将限制它获取所需数据的能力,即使它拥有这些数据,它也能做伟大的事情。

达里奥·阿莫迪:  所以我认为,从技术层面来说,我并没有想象人工智能,仿佛科学家们会进行所有这些实验并收集所有这些数据,然后人工智能对其进行分析。我同意这实际上非常有限,并且可能不是限制性步骤。我实际上认为我们将会看到一幅更像这样的图景:人工智能就像教授、PI(首席研究员)和联合PI。

设计实验,例如说,“如果我们发明这种新型显微镜,或者如果我们发明这种新型分子生物技术来编辑基因或标记细胞或蛋白质的哪个部分被构建,我们就能更好地理解这种疾病的情况”。我认为,如果你将这些干预措施加起来,你就会使生物学中发生的事情变得透明。

这将是真正理解生物学中正在发生的事情的第一步。这种理解也是设计能够有效干预的药物和药品的第一步。我认为人工智能能够做到这一切。

我认为唯一困难的部分将是我们的制度。我认为这些人工智能将如此优秀,以至于我们可怜的人类制度将无法跟上它们。在某些情况下,它们不应该跟上。其中一些制度是为了防止变化发生得太快,防止事情过于具有破坏性,并保护社会免于崩溃。

但其中一些障碍是不必要的。所以这是我们将不得不应对这种技术进步而需要解决的问题。

埃里克·纽科默:  是的。我的意思是,我部分地读了你的文章,文章认为设置人工智能的监管障碍可能会很糟糕,因为我们有很多重要的事情需要实现,任何武断的障碍都可能成为一个真正的问题。我的意思是,Anthropic内部就是否支持加州的立法进行了辩论。你最终是支持还是反对这项立法?你在立法方面做了哪些推动?

达里奥·阿莫迪: 是的,我认为我需要反驳的是这种单向的轴线,即更多监管与更少监管,对吧?我认为我们更倾向于这样考虑:监管应该非常精准,正是因为你所说的原因,正是因为我看到了所有的好处,比如拯救人们生命的能力。我不想看到这个房间里任何人的父母或祖父母因为我们部署AI的速度不够快而死去,对吧?因为我们过度监管了。我每天都感受着这种担忧。我对此非常同情。

同时,正因为我们可以利用生物技术、网络技术以及系统的自主性做很多事情,我认为,如果你了解这些模型能够做什么,你也会了解它们如何被各种行为者滥用。因此,我认为我们需要一些非常有针对性的监管测试,只关注最严重的威胁,其目标是生物、网络、核武器、自主性风险,对吧?这些事情确实是,你知道的,对社会和人类的威胁,对吧?这些事情就像,“天哪,这真的是一个公共安全和国家安全问题。”

埃里克·纽科默:  我们离需要被“关进盒子”的人工智能还有多远?或者说,你比我更了解,这种人工智能不受控制的风险有多大?

达里奥·阿莫迪:  我认为现在这些模型还不够聪明,但它们很快就会变得更聪明。这些模型也不够自主。我认为人们不认真对待这些担忧的一个原因是,你会觉得,“嘿,这只是一个聊天机器人”。你跟聊天机器人说话,这很荒谬。

埃里克·纽科默:  Andreessen Horowitz说,这只是数学,只是数学……

达里奥·阿莫迪:  嗯,我不知道。我的意思是,你的大脑不也是数学吗?同样的计算,当神经元放电时,它会总结突触。那也是数学。我同意。所以我们不应该害怕希特勒。这只是数学。对吧。

埃里克·纽科默:  不,我认为这是一个很好的论点。我的意思是,最终一个智能系统会变得比你……

达里奥·阿莫迪:  不,整个宇宙都是数学。但是,我的意思是,你知道的,抛开玩笑不说,我认为我们需要平衡这些事情。

埃里克·纽科默:  但是“盒子”的问题,我的意思是,这是一种需要将其与互联网隔离的想法,或者担心它。

达里奥·阿莫迪:  是的,我认为一旦我们拥有这些能够采取行动的智能体,人们就会直觉地意识到,第一,这些东西非常强大,它们会让我们的生活变得更好。但伙计,你最好知道如何很好地控制它们。所有这些关于聊天机器人今天说一些难以预测的话,人们还在笑话的事情,我们必须做得更好才能控制这些智能体。因为,你知道的,当它们删除你硬盘上的所有文件时,就不好笑了。

埃里克·纽科默:  你最近最担心的是什么?

达里奥·阿莫迪:  就像你在这件事上吸取了教训一样,我不喜欢那些词,我认为它们有点奇怪,我只是觉得,你看,我们应该在风险出现时对其进行评估,与此同时,我们应该获得所有我们可以获得的经济利益,我们应该找到有效衡量风险的方法,但要尽量减少对我们现在看到的令人惊叹的经济进程的干扰,你知道的,我们最不想做的事情就是减缓速度。

埃里克·纽科默:  特朗普政府对人工智能的发展轨迹意味着什么?我的意思是,你现在关注的是安全问题。我认为,大型语言模型将成为国家利益的焦点,这是可以理解的。你与美国政府的互动情况如何?这种互动方式是否发生了变化?在特朗普时代?

达里奥·阿莫迪:  是的,你看,这其中有几个方面。我的意思是,你知道的,我们一直与政府合作制定各种政策。我的意思是,我一直倡导这种有针对性的监管。我认为我们向上一届政府也倡导过这一点。这是我们对本届政府的立场。我们将在这个问题上保持完全一致。显然,不同的政府会有不同的立场,可能会或多或少地接受,但这并不是我们可以控制的。我们将坚持我们所信仰的东西。至于模型的安全问题,这是我担心的问题。我认为我们不应该天真。这些模型的经济力量将转化为政府和国家权力。我认为这很重要。

埃里克·纽科默:  我们是在选择我们最喜欢的哲学家国王吗?这就像我们必须挑选哪位人工智能CEO,看看他们的灵魂,看看我们应该支持哪一位?

达里奥·阿莫迪:  是的,我的意思是,你知道的,我认为这是一个坏主意。我认为我在播客上说过这一点。我认为从个人、公司或机构的角度来思考是一个坏主意。我们一直试图以这样的方式建立Anthropic。我们有这些结构,比如长期利益信托。我们给自己施加了负责任的扩展计划。这就是有针对性监管的目的,我认为一个合理的社会,尤其是在技术发展变化如此之快的情况下,需要限制个人的权力。这适用于政府官员。它也适用于公司高管。

埃里克·纽科默:  所以你想要一个可以被董事会赶出去,然后再回来,并且真正具有压倒性优势的CEO。这就是公司运作的方式吗?

达里奥·阿莫迪:  我认为你在诱导我,我不会上当。

埃里克·纽科默:  一家你离开的公司?是的。换一种说法,就像“争夺榜首”的想法。我认为Anthropic的一个核心目标是,如果我们能做好,我们将吸引最优秀的工程师,这将给其他人施加压力。我的意思是,现在似乎很多人都在加入Anthropic。请告诉我们你“争夺榜首”计划的现状。

达里奥·阿莫迪: 是的,我的意思是,你知道的,我确实看到了这一点,对吧?所以我们参与了很多实践,比如我们对机械可解释性的发明,我们对宪法AI之类工作的研究,以及更多平凡的、面向商业的实践,比如,我们努力在安全方面做得更好,我们努力开发企业可以信任的模型。

通过各种渠道,在我们做了这些事情之后,其他公司往往会采用这些做法。所以,你知道的,Anthropic现在已经有将近1000名员工了。所以我经历了很多,你知道的,各种各样的,招聘竞争在我们和其他公司之间展开。

我认为这是一个重复博弈。会有工程师或研究人员来到Anthropic。我对你们的可解释性工作印象深刻。我对你们在宪法AI方面所做的事情印象深刻。你们对RSP(负责任的扩展计划)考虑得很周到;我总是说,去你没有选择的竞争对手那里。写一份文件,列出你选择Anthropic的原因。

然后我重复这个过程,在五次之后,另一家公司就会厌倦了。然后,你知道的,在他们意识到之前,他们就组建了一个做同样事情的团队。

埃里克·纽科默:  是这样的。马斯克对此有何回应?XAI呢?你注意到他们了吗?我的感觉是,这家公司似乎不太会参与你们的“登顶之战”。

达里奥·阿莫迪:  你认为他们现在是真正的竞争对手吗?这很有趣。我不想具体评论其他公司,但马斯克的观点很独特,难以归类,对吧?一方面,我认为,如果从常规角度来看,比如普通的安全问题,这些模型就像是在一片“蛮荒之地”。但另一方面,他在某些情况下也支持监管。所以,我觉得他很难对付。

埃里克·纽科默:  我可能不如你了解情况,但感觉有点像,如果他负责,他就信任它;如果其他人负责,情况就有所不同。

达里奥·阿莫迪:  你在引诱我。

埃里克·纽科默:  好吧,我们想知道。这些都是真正关乎存亡的问题。我们必须就正在发生的事情进行公开诚实的对话。我认为我的许多著作的前提是,实际的人物,个体,在某些事情中确实很重要,他们的这些决定。

达里奥·阿莫迪:  我认为他们确实很重要,但我认为我们应该尽一切努力减少他们的重要性。机构。这是我的观点。当个人过于重要时,我们就失败了。

埃里克·纽科默:  我有一个具体的问题,因为我一直在和我妻子辩论这个问题。你认为你们的模型和其他模型会成为电影制作人和创意工作者吗?或者说,你对模型作为创意灵感的看法是什么?

达里奥·阿莫迪:  是的,我认为模型将具备相当大的创造力。至少在短期和中期内,存在这样一个世界:所有AI都比所有人类聪明得多,聪明得无法比拟。我们可以讨论这将会何时发生。比较优势的逻辑极其强大。即使模型能够完成人类90%甚至99%的工作,人类仍然会扮演一个令人惊讶的、重要的创造性角色。

所以,即使模型开始具有创造力,我认为,我使用Claude来辅助我的写作,它仍然非常像是人类创作的。也许不太像人类创作的是图像生成和视频生成模型,它们的输出是“块状的”。你可以生成图像,也可以不生成。我们正在开始对其进行编辑,但这可能是一个原因,而不是唯一的原因,Anthropic 较少参与此类模型的开发。

它们感觉更像是直接的替代品。我认为它们有更广泛的安全问题。是的,比如文本到图像模型或文本到视频模型。

埃里克·纽科默:  你们会避开它们吗?

达里奥·阿莫迪:  或者说,目前我们还没有开发它们。我们目前没有开发它们的计划。我从不说“永远不会”,生态系统中很多事情都可能发生变化,无论是从商业角度来看是否有意义,还是它们的安全性。但这并非我们目前已经做过的事情,也不是我们目前正在进行的事情。

埃里克·纽科默:  Anthropic 这家公司。你是如何看待它的?你们似乎在向企业销售产品、与企业合作方面做得很好。

达里奥·阿莫迪:  是的,我认为我们一直有意识地更关注企业端而不是消费者端。这个领域的每家公司要么是一家大型以消费者为中心的公司,要么是一家初创公司,由于多种原因,即使它们同时面向消费者和企业,其特性也更适合消费者市场。所以,在Anthropic的大部分历史上,我们一直主要面向企业,因此我们的大部分注意力、大部分开发注意力都放在那里。这体现在我们能够投入到API中的内容上。例如,我们确定编码是一个许多企业想要在其基础上构建的领域。例如,人们提到的Cursor,还有Cognition,我们最近参与了GitHub Copilot……

埃里克·纽科默:  你的意思是他们的软件由Anthropic提供技术支持。你们是技术大脑,他们在开发软件。

达里奥·阿莫迪:  是的,这是一种API业务,对吧?你提供一个模型,人们会在该模型之上构建产品,我们没有时间去操心每个产品的细节。我们不可能为编码开发一个产品,再为法律开发一个产品,再为其他东西开发一个产品。所以,我认为为企业服务的神奇之处在于,你可以让生态系统为你进行探索。

埃里克·纽科默:  Anthropic 的成功在多大程度上取决于成为最聪明的?比如,你们需要成为领导者,并保持持续的优势。如果是这样的话,这听起来像是一项压力很大的工作。

达里奥·阿莫迪:  是的,坦白说,成功的途径主要有两条。如果你拥有比其他所有人更好的模型,那么你将在各个领域都取得成功。如果有一些公司拥有强大的模型,这就是我们目前的处境,我认为Anthropic的模型在许多方面,尤其是代码方面,是最好的。但是,我们可能有三四家公司拥有相当强大的模型。如果你拥有与其他三家公司不同的产品方向、细分市场或商业模式,这并不难,因为公司数量并不多,而且模型大致相当,好一点或差一点,这是一种可持续的商业模式。我认为对于Anthropic来说,这就是部署在AWS和GCP等云平台上,面向企业而不是消费者。尽管消费者并非我们的核心关注点,但我们投入了一些精力,它实际上增长得相当快。

埃里克·纽科默:  我知道,很容易低估你们公司仍然年轻,以及在这么短的时间内发生了多少事情。

达里奥·阿莫迪:  是的,在这五家公司中,我们是唯一一家成立时间不到十年,或者与一些大型现有公司财富或个人财富无关的公司。

埃里克·纽科默:  根据你的观察,你们正在构建这种API业务。我不知道。人们应该创办什么公司,比如,Anthropic 太忙了,做不了的。

达里奥·阿莫迪:  是的,我的意思是,如今代码绝对,你知道的,代码绝对是疯狂发展的,我认为这种情况还会持续下去。进步会持续下去。我认为,从许多方面来看,它顺风顺水,因为代码在训练或部署过程中具有一个特性,那就是非常容易以自动化方式进行验证,对吧?人类不需要参与其中来判断它的好坏。你知道的,我最喜欢的,与《爱的恩典机器》一书相呼应,我希望在医疗和生物学领域看到更多应用。这也许不那么像商业判断,更像是一种人道主义价值判断,尽管我认为这方面还有很多工作要做,而且我认为这也会带来相当可观的利润作为副产品。我认为在法律和金融领域还有很多工作要做,我认为这些领域非常成熟。

埃里克·纽科默:  你是指成为比其他人更好的交易员,还是提供交易服务?

达里奥·阿莫迪:  是的,或者,你知道的,以更好、更知情的方式提供金融服务。我认为在法律方面,大量的法律工作只是超级重复性的。你知道的,我们现在正在为Intuit提供一项服务,你可以提出更好的问题,比如当你申报税款的时候。所以我认为像会计、咨询这样的事情。

埃里克·纽科默:  抱歉打断一下。合成数据,你对此持乐观态度吗?

达里奥·阿莫迪:  我对合成数据非常乐观。是的,我的意思是,你知道的,我总是举AlphaGo Zero的例子来说明合成数据,它在没有使用任何人类数据或与人类玩家对弈的情况下,就超越了围棋人类最佳玩家。它只与自己对弈。所以,这似乎是无中生有,但AlphaGo Zero某种程度上做到了无中生有。

埃里克·纽科默:  Anthropic 始终保持独立运营有多重要?我的意思是,显然,你们与亚马逊和谷歌有这些关系,我想在莱娜·卡恩领导下的民主党政府时期,人们会认为,无论如何,你们永远不可能出售公司。现在看来,将来有一天你们可能会出售公司。出于安全考虑,这是否不在考虑范围之内,或者你认为情况会如何?

达里奥·阿莫迪:  你认为呢?是的,我的意思是,你知道的,我认为,我认为我们的想法是,我们相信我们的使命最好是通过成为一家独立的公司来实现,对吧?我们拥有这些东西,例如长期利益信托、负责任的扩展策略,这些对我们来说都非常重要。而且,就我个人而言,我的强烈偏好是,是去做这些,是以独立公司的身份去做这些。而且,如果我们看看我们在市场中的地位以及我们已经取得的成就,我们与谷歌、亚马逊和其他公司建立的独立伙伴关系,我认为这是一件非常可行的事情。

埃里克·纽科默:  你们可以使用他们的芯片,还是大多数时候都需要使用英伟达的芯片?

达里奥·阿莫迪:  我们使用英伟达的芯片,但我们也使用谷歌和亚马逊的定制芯片。

埃里克·纽科默:  它们现在的表现如何?

达里奥·阿莫迪:  我的意思是,你看,不同的芯片有不同的权衡。我认为,你知道的,我们从所有这些芯片中都获得了价值。

埃里克·纽科默:  最后一点,你喜欢强人工智能。我每次都记错。不是AGI。

达里奥·阿莫迪:  这只是一个随便用的说法。我称它为强大的,随便什么。我只是想给它一个通用的术语,表明这里没有时髦词汇。只是,模型会变得越来越好。

埃里克·纽科默:  请你自己定义一下,然后预测一下还要多久才能达到。

达里奥·阿莫迪:  我们正在接近。是的,我的意思是,你知道的,我再说一次,一个模型,像诺贝尔奖获得者一样优秀,在许多领域都是通才,拥有自主能力,可以独自工作数小时或数天,并且有一个大型数据中心集群,对吧?比如成千上万甚至数百万个。我认为一旦我们达到这一点,社会将会改变。再说一次,我对这些预测的误差范围一直很大,但是,你知道的,我认为,这可能会发生在2025年,也可能会发生在2026年。也许是2027...

埃里克·纽科默:  7年,也可能。这会改变我们的生活。当这种情况发生时,我们的生活将完全不同。

达里奥·阿莫迪:  是的,我的意思是,你知道的,会有一些问题,比如,人类障碍,部署,我认为,这不会立即改变我们的生活,对吧?

埃里克·纽科默: 你会选择哪一年?你现在的预测是哪一年?

达里奥·阿莫迪: 比其他人预测的更快。

埃里克·纽科默:  你在这个时间点上选择哪一年?快说吧。好吧,达里奥,非常感谢你。你真是个好人。我非常感谢你。

关注公众号后设🌟标,掌握第一手AI新动态

往期精选

  1. 黄仁勋专访:OpenAI在大模型混战中达到“逃逸速度”
  2. 李飞飞与Justin深度解读空间智能:数字世界需要三维表征,才能与现实世界融合
  3. PayPal创始人彼得·蒂尔:人类科技停滞源于原子方面的进展远慢于比特
  4. 谷歌联合创始人布林:巨头们打造的“上帝模型”几乎可以理解一切
  5. 马斯克:AI将使商品和服务的成本趋近于零
  6. Karpathy最新专访:人形机器人、特斯拉、数据墙与合成数据


瓜哥AI新知
紧追AI业界一手观点、访谈、动态,点滴构建AI底层认知
 最新文章