深度|Sam Altman密歇根大学谈话:我们仍未全然理解AI将带来什么

文摘   2024-11-02 11:21   福建  

图片来源:Michigan Engineering

Z Highlights

  • Sam Altman认为,人类历史发展的技术进步,就是通过创造更好的工具、再利用这些工具取得更惊人的成就。我们不断为下一代工具搭建新的“脚手架”,如今正处在一条越来越陡峭的可能性曲线上。

  • 无论是创业、研究项目还是其他领域,选择挑战难事往往比追求简单目标更容易取得突破。关键在于能否找到足够多的有才华的人,并激发他们对项目的热情和长期投入。

  • 现在的人们是最后一代在成长过程中不认为所有产品和服务都具备某种认知智能的人。这种智能将改变我们与电脑和世界互动的方式,并逐步渗透到生活的各个方面,大幅提升我们的效率和能力。而这种影响的深远程度,我们还未完全理解。
OpenAI的o1发布

Dan Fader:欢迎来到安娜堡,Sam。很高兴你能来。

Sam Altman:谢谢,很高兴能来这儿。

Dan:我们认识已经有十年了,回想起来,能够和你一起经历这些年真是非常棒。

Sam:我也是。有起有落,但总体来说我也是。

Dan:我喜欢我的工作的其中一个原因就是能够结识一些优秀的人,并寻找合作的机会,看看能够产生什么火花。另一个原因就是像今天这样的机会,能把这些优秀的人带到大学,反过来为大学带来一些新的东西。今天我们有很多内容要讨论。我知道我们每次聊天时都会在很短的时间内讨论很多话题,所以我准备了很多问题。我们可能没法全部讨论完,但会尽力。不过,你有点打乱了我的计划——我本来想把快速问答环节留到最后,但我现在就想问你一个问题:你最喜欢的水果是什么?

Sam:其实我不怎么喜欢草莓,不过今天我选草莓吧。菠萝不错,我选菠萝吧。

Dan:对那些还不太了解的人来说,或者还没看到新闻的人——

Sam:我们今天发布了o1项目,我们叫它“草莓”,这个代号我们用了两年了,能发布这个项目我们非常兴奋。

Dan:那它到底是什么呢?

Sam:当我们完成GPT-4时,我们最感兴趣的一件事就是:我们能不能用我们创造的这个工具来教模型推理?我们觉得,如果能做到这一点,那将是一个非常重要的进展。从某种意义上来说,这是AI中最明显的、最重要的下一步。因此,我们着手进行了研究。OpenAI的多个团队都在以不同的方式研究这个想法,我们尝试了很多方法,有的成功了,大多数没有成功,但我们逐渐集中精力在那些有效的方法上。今天发布的这个模型是我认为首个真正的通用复杂推理模型。当然,它还处于早期阶段,但这是一个重要的开端。我们有一个关于AI发展的五个层次的想法。我们已经处在第一个层次——基于对话的模型,已经有几年了。而第二个层次是推理,我认为这是我们第一次真正进入这个阶段。从现在开始,这个模型会变得越来越好,但即使是现在,它已经相当不错了。

Dan:那么,这是否意味着我们正在朝着通用智能或超人智能的方向前进?我们现在处于什么阶段?

Sam:我认为我们确实走在这条路上,我们已经走了很久了,这是这条路上的下一个步骤。不过,我觉得这是一条漫长的指数曲线,而我们很幸运能够见证这个过程。这是一个令人兴奋的时代。

Dan:今天是个大日子。

Sam:是的,我想大家可能都觉得有点累了,但像这样的范式转变并不会经常出现。GPT-4是一个,而今天的发布也是一个。这种时刻真的很特别。

Dan:我很好奇的一点是,当GPT-2推出时,它迅速引发了广泛的关注。我觉得它的发展速度甚至有点超出了你的预期。你能谈谈为什么吗?

Sam:未来总是很难预测,你永远不知道什么时候会出现爆炸性时刻,或者为什么它发生在那个特定的时刻。是GPT-3.5的那个时刻引爆了市场,而不是GPT-3或者GPT-4。我们知道这种情况总会发生,但具体发生的时间让我们有些措手不及。

Dan:回到今天的发布,你认为它会是一个大事件吗?在回顾之前的项目时,很多人都认为GPT-2本身已经是个巨大突破,怎么看待这种“怎么会没意识到它是个大事件”?当你在做某件事的时候,你是否会把注意力集中在指标和发展上,而忽略了它的影响?

Sam:当我们发布GPT-3时,科技界对此很感兴趣,但其他大部分人并没有太在意。我当时有点困惑,因为我觉得它应该得到更多关注。然后在2022年11月30日,我们推出了ChatGPT(基于GPT-3.5),而实际上我们在2022年8月2日就完成了GPT-4的训练,内部已经用了几个月。对于我们来说,GPT-4是我们早就习惯的好工具,GPT-3.5反而显得旧了。所以我们低估了它对那些没用过GPT-4的人的影响。我想,这就是我们当时有些惊讶的原因之一。但这也是难以预测的事情。

Dan:回到今天发布的“草莓”,你觉得它的最重要应用是什么?

Sam:你们中有人参加过AIME数学竞赛吗?我们用这个模型做了一次,得了93分。我高中时还做过,但没考到这个分数。这就是一个指标。对于编程来说,它将大大提高人们写软件的效率,我认为这会非常惊人。很多不同领域的研究人员也可以用它来提升他们的研究成果。当然,人们总会找到一些我们从没想过的使用方法。

Dan:相比于之前的技术,这次发布的“草莓”有哪些突破?你觉得它最显著的区别是什么?

Sam:非常不同。我们给这个版本编号,因为它是一个全新的东西。我们一度考虑过把它叫做GPT-5,虽然它不完全符合这个定义,但这确实是一种新的范式,是一种不同的模型使用方式。它擅长处理不同类型的问题,但处理复杂问题时确实需要更长的时间,这一点有点让人抓狂,不过我们会逐步改进。它能够完成很多GPT系列模型无法处理的任务,当然,它也在一些方面还有所欠缺。因此,这将是一个逐步适应的过程。

但刚才在后台,我看了一些人在线上的反馈,看到人们第一次接触到这个模型的反应真的很有趣。有人说这个模型写出了一段极为复杂的代码,或者帮助他们解决了困扰已久的问题。看到人们以全新的视角看待这个模型,真的很让人惊讶。未来几周内,我们将会看到更多关于人们如何适应并利用这个模型的反馈。一直以来,AI在某些方面的表现非常惊人,但在推理能力上却存在明显的不足。这一次在推理能力上确实是一个质变。

Dan:我想进一步了解的是,当前我们看到的很多AI尝试,比如递归自我改进或开放式创新,是否在朝着类似的目标前进?或者这次的发布在某种程度上取代了这些路径?它们之间的关系是怎样的?

Sam:我认为这次发布确实为智能代理的开发打开了大门。过去,限制智能代理的主要障碍在于缺乏足够的推理能力和稳健性,让这些系统能够完成长时间的复杂任务。而现在,这种能力正在逐步成型。虽然我们距离完全的自我改进循环还有一段路要走,当我们接近它时也会非常谨慎。不过,现在可以说,智能代理的愿景已经不再遥不可及。

Dan:那这对强化学习和人类输入的关系意味着什么?比如人类反馈强化学习(RLHF)一直以来都是一个重要的工具。

Sam:这次的o1几乎完全基于强化学习。这就是它的核心秘密。我们过去也做过一些较小规模的强化学习实验,RLHF就是一个很好的例子。但这次真正实现了强化学习驱动的语言模型,效果非常显著。

AGI:指数曲线的连续过程

Dan:我们稍微拉回来,如何定义AGI?在你看来AGI究竟是什么?

Sam:说实话,AGI这个词现在几乎已经失去了意义,人们对它的理解各不相同。有些人觉得GPT-4就是AGI,我觉得它显然还不是。有些人则对AGI有种模糊的概念,但总觉得它会在未来的某个时刻到来,而且这个时刻永远是“再过两三年”。还有一些人认为,AGI指的是一种能够进行递归自我改进的超级智能。我个人觉得,这个词已经被过度使用了,所以我倒是希望能把它淘汰掉。我们更倾向于用“AI发展的层次框架”来进行讨论,这样至少我们能够就某些里程碑达成共识,并用更严谨的方式进行讨论。

如果你回到五年前,展示一下我们现在的技术,绝大多数人会感到不可思议,他们会说:“AI不可能在2024年做到这些事情。”同样,如果你能穿越到五年后,看看我们在2029年拥有的技术,大多数人也会觉得难以置信,认为这简直不可能。所以,重点不在于AGI的定义或它何时到来,而在于我们已经踏上了这条指数增长的曲线,而且未来每年都会有令人惊叹的进步。

Dan:那我们今天暂时还先叫它AGI,以后我们再改口。我注意到你的一些评论提到,未来某个时刻可能会发生某种“事件”,但现在你的描述更像是一个持续进化的过程,这个过程主要由推理能力、解决问题的能力等功能性因素来定义。你觉得未来还会有这种“重大事件”吗?还有一个让我困惑的问题是抽象的概念。LLM是基于语言的,而语言本身是对现实世界的抽象。而我对AGI的一个想法是,如果你能够实现这种“魔法”,不再依赖于抽象,而是直接实现抽象本身,那是否有可能出现一个让你认为这会是“事件”的场景呢?

Sam:我觉得在前进的路上确实会有一些里程碑事件,但我觉得这个过程总体上会感觉是连续的。如果要用“连续”来定义一个指数曲线的话,它确实是这样的。很难说清楚,因为当系统的能力远超我们时,比如当它能比整个OpenAI团队都更擅长做AI研究时,那应该算是一个非连续性的突破。但当你看着对数刻度或指数增长时,一切都会显得很奇怪。

Dan:沿着这条路走下去,你觉得哪个领域的诺贝尔奖会最先被授予AI生成的研究成果?

Sam:好问题。我没有特别明确的观点,我猜可能会是在物理学领域的发现,虽然我不是很有信心。

Dan:我觉得也有可能是和平奖。

Sam:没什么信心,但那倒是挺棒的。

Dan:我们可以期待一下。也许这也是个不错的切入点,来聊一聊科技发展与社会的关系。你觉得在这个技术不断推进的时代,乐观主义意味着什么?

Sam:我觉得现在这个时代想不乐观都很难。我们正处在科技革命的高潮期,可能是人类历史上最激动人心的时刻。人类将在不久的将来做到一些难以置信的事情,实际上,有些事情已经在今天发生了。世界和昨天相比已经截然不同了。人们会创造出一些让我们目瞪口呆的东西,而你们——在座的每一位,将会创造出这些奇迹。纵观人类历史,技术进步的故事就是我们打造更好的工具,然后用这些工具做出更加惊人的成就。我们为下一代工具构建了新的“脚手架”,而我们正站在一条越来越陡峭的可能性曲线上。

这种平台转变每隔一段时间就会出现一次,而这一次可能会是一个大写的“标点符号”。现在这个开放的时代给了我们一个巨大的舞台,让我们有机会为彼此创造更美好的事物。教育、医疗、科学——这些领域将在短时间内得到巨大的加速与提升。我很难想象在这个时刻还不抱有乐观态度。坦白说,至少在科技行业,这种无尽可能的感觉很久没有出现了。过去一段时间,整个行业似乎有点停滞不前。但现在,我们正经历着某种类似于电力或晶体管发明那样的重大突破。

科技进步催生更多年轻创业者

Dan:在准备这次活动时,我回去看了一些你以前的采访。去年你跟Stripe的联合创始人Patrick Collison聊过,那个时候你表达了一些对年轻创业者的困惑。你觉得现在这种创新解锁的时代,是否会看到更多20多岁的“超级创业者”涌现?

Sam:我觉得是的。总体而言,当行业发生巨大变革时,年轻人总是拥有最大的相对优势,尤其是在科技行业。每次当我去拜访大学时,我都会有种奇怪的感觉,看到那些20多岁的学生比我更擅长使用ChatGPT,这让我有点惊讶,毕竟我应该挺擅长这个的。但这也是一种巨大的优势。我相信这将成为年轻一代创业者们的一个巨大推动力,可能我们会看到他们在接下来的十年里大放异彩,甚至可以说,他们将迎来属于他们的“复仇时刻”。

Dan:我倒是不知道他们在找什么“复仇”的机会。

Sam:我只是觉得,作为一名20多岁的创业者,我曾经非常感激自己那段创业的经历,那是一次非常有趣的旅程。但在过去的十年里,科技行业似乎在某种程度上变得有些“僵化”。而现在,我相信钟摆会再次摆回来,年轻一代将会有更多机会去探索和创新。

Dan:说到“人”这个话题,我们如何激励人们去做那些雄心勃勃的项目?你曾领导Y Combinator,这个世界上最知名的创业加速器,帮助许多公司起步。但像这样的大想法和变革性技术,并不会按照时间表自动出现。你认为,无论是在大学、公司,还是风险投资领域,应该如何营造一个环境,让那些有潜力的年轻人能有机会做出伟大的事情?

Sam首先,我认为人们应该做自己真正想做的事情。如果你喜欢那种能在一个周末完成的项目,并从中得到满足,那就去做吧,这没问题。但如果你想做一个长期的项目,那也应该至少有机会去尝试。在过去十年的硅谷,做这种事情确实变得更难了,但我觉得这种状况终于开始改变了。

我的建议是,在创业、研究项目或其他领域中,做一个难事比做一个简单的事更容易。最终的关键是,能否找到足够多的有才华的人,让他们对项目充满热情并愿意长期努力。比如,如果你的目标是开发AGI,那就是一个非常有趣的使命。如果你的目标是开发“核聚变”,那也是一个有趣的使命。但如果你只是想做某种“第2000个类似的想法”,那就不那么令人兴奋了。所以,我认为,虽然从事一个雄心勃勃的项目需要更高的起点,但不论是做创业公司还是其他事情,过程都会非常艰难。既然如此,那还不如选择一个令人兴奋的目标来推动自己前进。

Dan:这个过程也会感到孤独吧?毕竟,你提到那些最值得做的事情,往往是别人觉得是个坏主意的好主意。

Sam:确实如此,但这并不意味着传统意义上的孤独。对于我们来说,从2016年到2020年,OpenAI的所有人都全心投入到这个项目中,外界几乎没有人关心我们的工作。我们偶尔发布一些小型研究项目,但没有引起太大的关注。从2020年到2022年底,虽然科技行业里有些人开始注意到我们,但依然有限。直到2022年底,当我们发布ChatGPT时,才终于引发了全社会的广泛关注。在那之前的四年里,虽然没有太多外界的认可,但我们内部团队一直充满信心,觉得我们是“清醒的”。虽然当时有点奇怪,觉得大家为什么“看不懂”我们的工作,但我们也并不受此困扰,反而因为专注于自己的探索而感到兴奋。

安全性与信任:政策与治理的挑战

Dan:我不想在下一个话题上花太多时间,因为你曾说过,太多人在推特上讨论这个话题,却没有足够的人真正付诸行动。那就是安全性的问题。我想到了一句1968年Elvis Presley的歌词:“少一些对话,多一些行动”。虽然我没赶上这首歌刚发行的时候,但它的意思就是少说多做。我们不深入讨论哲学层面,但我想提的是,你在OpenAI和其他项目中所做的一件事与之相关,那就是治理和监管的问题。你曾提到,研究机构可能做得不够,私营企业可能做得过多,而政府可能在一开始做得不够,但后来却做得太过头。而这三者似乎是并行存在的。你是如何继续应对这个问题的?

Sam:到目前为止,我们在技术安全上做得还算不错,但未来还有很多工作要做。随着AI代理的出现,安全问题将变得更加复杂,因为我们必须确保这些代理能够在安全的环境中运行,比如在不被滥用的情况下使用我们的数据和权限。未来的安全挑战将不再与技术开发分离,而是会成为部署过程中至关重要的一部分。

Sam:我觉得我们目前在技术安全上做得还不错,但未来还有很多挑战,而且这个领域的形态还在不断演变。随着AI代理的普及,我们不得不面对一个现实——让这些自主代理去“点击”互联网上的内容,获取你的所有密码和信息,这需要建立极高的信任度。安全问题已经不再是可以与技术开发分开的独立领域了,它也成为了系统能否部署的一个重要限制因素。尽管这并不是传统意义上那些研究人员所谈论的“AI安全”,但这更像是系统安全工程的一部分。总的来说,我对目前领域的发展方向感到比较满意,比我想象中的“中间水平”要好得多。不过,随着系统的不断强大,安全问题会变得更加微妙和复杂。

Dan:是的,关于“监管”这个词我听到很多。但我不确定我们是否应该从“监管”这个角度来看待问题,还是应该用“治理”来描述更合适?

Sam:我认为“监管”是好的政策的一部分,而我们需要的是一套好的政策,一个行业做合理的事情,监管者也采取合理的措施,以及人们以合理的方式使用这些系统。当然,需要有监管,但还需要一整套广泛的措施来配合。

Dan:如果你能做到这一点,也许你可以赢得诺贝尔和平奖。

Sam:也许吧,哈哈。

Dan:信任是一个很大的问题,如果没有先建立起信任,无论是对OpenAI、Altman还是其他方面的信任,其他的一切都很难实现。你是如何在规模不断扩大的过程中建立信任的?

Sam:我们在AI模型上的一个进展是,现在的模型比过去更少出现幻觉或明显的错误。我们刚发布这个模型时,情况还很危险,因为它有时会说出一些完全不靠谱的话。这意味着用户可能完全不信任它,或者会过度信任,这也是一个问题。但让我们感到惊喜的是,用户很快就能掌握如何使用这个工具,他们了解其局限性,知道什么时候该使用,什么时候需要核实,什么时候可以盲目信任。这也反映了人类在适应新工具方面的敏锐能力。

Dan:我想再回到一个和信任相关的问题,这也是关于“黑箱”里的东西。这些进展,比如“草莓”或1.0版本、2.0、3.0等等,都是在尽量减少对数据的依赖。然而,仍有一些低语境语言(如匈牙利语和库尔德语)和数百年的文献没有被纳入这些语言模型中。你觉得这重要吗?

Sam:我们希望能够将所有这些内容纳入模型中。我们有很多合作伙伴帮助我们将低资源语言或尚未数字化的数据引入这些模型中,我们也非常愿意做更多这方面的工作。我们希望能够尽可能多地涵盖各种语言和数据。

Dan:这是否也与安全的可解释性有关?

Sam:我认为这与可解释性无关,但同样也是一个非常重要的方面。“草莓”项目的推理链是一个新的、令人兴奋的可解释性研究方向。

Dan:我想把话筒交给一些学生提问,但在此之前,我还有几个快速问答的问题。你之前已经回答了我一个问题,所以第一个问题是关于阿玛拉法则(Amara’s Law),即我们往往会高估技术在短期内的影响,而低估它在长期内的影响。那你认为我们现在在长期内低估了什么?

Sam:我认为,这种技术真的会无处不在,并融入到一切之中。你们都是最后一代在成长过程中不会期望你使用的每一个产品和服务都非常聪明、在某种认知能力方面比你更聪明的人。而这种智能性将改变我们使用电脑、与周围世界互动的方式,以及它将如何逐步渗透到我们生活的方方面面,并极大地帮助我们所做的一切。我认为我们还没有完全理解这一点的影响。

学生问答环节

Q1:我想问一个关于全球能源状况的问题。美国目前的能源产量约为1太瓦,电价大约为每千瓦时0.17至0.25美元。预计到2050年,产量会增加到2太瓦,但电价可能相似。而中国、法国等国家的能源效率远高于我们。我想知道你对这种情况对企业影响的看法,包括对单位经济效益和整体安全的影响。此外,您认为这种能源差距可以通过硬件改进还是软件优化来弥补?

Sam:能源是未来的两大基本商品之一,另一个是智能。我们应该比现在拥有更多的能源,并尽可能降低其成本。我认为,核聚变会成功,并成为地球上最便宜的能源形式。如果核聚变不成功,我依然认为太阳能加储能会很便宜,并且能大量应用。如果美国不在廉价、清洁、安全、可靠的能源上加大投资,将非常危险。

历史表明,随着能源成本的下降,人类生活质量会显著提升,但目前的进展还没有达到我的期望。尤其是在AI时代,要运行AI并支持我们想实现的所有新事物,我们将需要巨大的能源供应。如果美国制定一个战略,要在智能和能源领域领先世界,这将是一个非常棒的方向。政府在其中可以发挥重要的领导作用。虽然现有的电网系统很糟糕,审批流程也很复杂,但我们应该努力推进能源建设。

Q2:(Eric,信息学院,医疗与AI博士)在OpenAI担任CEO期间,你遇到的最具挑战性的时刻是什么?你是如何应对的?

Sam:可能这个答案与你的预期不一样。最具挑战性的时刻并不是某一个具体的时间点,而是我们在初期阶段不知道接下来该做什么的时候。当时我们还没有发布产品,只是在做研究,但我们对下一步的工作方向并不明确。我们尝试了很多随机的事情,感觉就像在森林中摸索。那是非常早期的阶段,团队成员们有时会因为一些琐事而产生矛盾,大家也缺乏动力。我们常常会想:“我们在做什么呢?也许我们过于乐观了。”面对危机时,我们还能有所应对,因为那是具体的情况。但当一切都不奏效、缺乏前进的动力、方向不明、团队成员的积极性下降时,情况就变得非常困难。最初的几年里,我们一直在经历这种状态。后来,当我们逐渐清晰了方向,情况就有所改善。

Q3:(Ashita,信息学院)在未来的二十年里,你认为AI会对教育系统产生什么样的影响,尤其是在个性化学习和教育公平性方面?

Sam:教育是我最感兴趣的几个领域之一。如果说我最兴奋的是AI在科学进步中的应用,那么教育领域应该是紧随其后的同样重要的领域。我们经常听到学生和老师分享他们如何使用AI来改变学习方式的故事。随着模型的不断改进,以及更多基于这些模型的服务的开发,AI已经在改变人们的学习方式和信息获取方式。我希望现在开始上学的每一个人都能接受比今天毕业生们最好的教育还要好的教育。我真的认为这是一个可以达到的转变程度。看到人们已经在用AI做出如此多的创新让人感到振奋。

Q4:(Matt,工程学院,计算机科学学生)在OpenAI产品大获成功后,你们是如何进行风险管理的?

Sam:其中一个重要的措施是建立起高效的监控系统。我们在发布前做了大量的测试,比如红队测试和安全系统的建立。但当产品在全球范围内广泛使用时,我们意识到需要一个非常出色的监控系统。这是我在发布之初低估的一点,现在我们对此已经做得更好了,这对风险管理非常有帮助。所以,严格的发布前测试和持续的精细监控是关键。OpenAI的一个特殊之处在于,我们在一年内不得不从一个小型研究实验室迅速发展成一家大公司。在ChatGPT发布的前一天,我们还只是一个小实验室,但一年后,我们成为了大型科技公司之一。这个过程非常痛苦,但也让我们明白了在短时间内快速构建新功能是可能的。

Q5:(Achuth,计算机视觉专业硕士)你如何在关键领域(如医疗或法律环境)应对AI的幻觉现象?是否有某个特定的LLM pipeline集中研究来解决这些问题?

Sam:首先,我想强调一下,这个问题在过去几年里得到了显著的改善。2022年是AI领域进步迅速的一年,那时GPT-3是全球最先进的模型,但它非常昂贵、运行速度慢且幻觉频繁。随着技术的发展,这个问题已经得到了极大的改善。随着“草莓”项目(o1)的发布,幻觉现象依然存在,但它已经不再成为人们在大多数使用场景下获得巨大价值的障碍。当然,在一些特定领域(比如医疗)依然不能过度依赖AI,因为幻觉问题仍然是一个潜在的风险。不过,随着人们对工具的理解能力越来越强,他们知道何时使用它,何时避免依赖它。这也是我们未来几个月和几年内会继续改善的一个领域,但目前来看,它已经不再是我们最严重的问题之一。

Q6:(Catherine Lin,Ross商学院,MBA)作为一名希望进入AI领域担任产品经理的MBA学生,我应该重点发展哪些关键技能或经验,才能有效地在先进AI技术和市场需求之间搭建桥梁?

Sam:我认为,不管是在哪个领域,最好的建议就是去实际做这件事。我一直认为,如果你想在某件事上变得优秀,最好的办法就是亲身去做这件事。我觉得这是一条被严重低估的人生建议。如果你想做X这件事,那就直接开始,尽可能快地去学习和实践,而不是先花时间积累一系列A、B、C,觉得将来会对X有用。但你应该尽早去做X。

Q7:(Julia Kassab,信息学院,大四学生)你认为当前学习计算机和信息科学的学生是否应该担心自己所学的技能以后会过时?

Sam:某种程度上是这样,但不完全是。比如说,如果你认为未来五年内程序员的工作内容会与今天大同小异,那肯定会让你有些失望。但如果你相信未来的软件需求将会几乎无限,而其中很大一部分需求将涉及如何定义、设计和操作比今天更高级的编程,那这种工作会有大量的需求。不过,这种编程工作会变得非常不同。我曾听说,当更高级的编程语言出现时,早期的程序员会担心没有工作了,因为新语言太简单了,人人都会用。然而,这种情况并没有真正发生过。我也不认为这次会发生,但程序员的能力和期望会极大地改变,工作方式也会和现在有很大不同。

我觉得有一些技能将会非常重要,而且是可以通过练习学会的,比如:韧性、适应力和快速学习能力。如果你具备这些能力——而且年轻人往往在这方面有天然的优势——那么你会处在一个优势的位置。如果没有这些能力,那过程可能会比较艰难。但我相信,通过刻意练习,这些能力是可以提升的。

Q8:(Amy,工程学院,计算机科学)考虑到OpenAI模型已经从互联网上和其他来源获取了大量数据,当你们用尽了所有可能的数据源时,你们打算如何获取更多的训练数据?

Sam:人类通过相对较少的训练数据就能够学习大量知识,因此我相信我们也能够找到更高效的数据利用方法。过去我对此担心很多,但现在已经不再担心了。我认为,我们将会轻松跨越“数据天花板”。

Q9:(Jack May,Ross商学院,MBA)AI在伦理或监管方面让你最困扰的问题是什么?此外,媒体或公众中普遍关注的哪些问题在你看来是误解?

Sam:我相信社会可以适应几乎任何程度的变化,只要有合理的时间去适应。然而,如果事情按照我们预想的发展轨迹继续下去,社会适应这些新工具的速度将会变得非常具有挑战性。真正让我困扰的是这种变化的速度及其可能带来的伦理影响。我们可以采取一些措施来应对这种挑战,但社会是否有意愿去落实这些措施,以及这些措施是否有效,目前还不明确。面对这种快速的社会变革,我们应该采取哪些行动?不应该采取哪些行动?这是一个需要认真思考的问题。至于媒体过于关注的内容,我认为媒体对AI的报道质量相当糟糕。我希望不再在新闻文章中看到“终结者”机器人那种陈词滥调,当然,还有许多类似的误解。

Dan:Sam,非常感谢你今天来到这里。我知道在场的每一位都非常感激你能抽出时间与我们交流。

Sam:谢谢你们的邀请,也感谢大家的到来。

原视频:OpenAI CEO Sam Altman discusses the future of generative AI

https://www.youtube.com/watch?v=unKXfaxVRCk

编译:Grace Bo


-----------END-----------
🚀 我们正在招募新一期的实习生
🚀 我们正在寻找有创造力的00后创业者
关于Z Potentials

Z Potentials
我们与Z Potentials同频共振
 最新文章