![]()
微软CEO萨提亚·纳德拉Satya Nadella,近期接受Youtube频道Bg2 Pod专访,讨论AI时代竞争与机遇、微软在AI领域战略与优势、对未来AI应用预测等。纳德拉分享微软在AI领域长期投入、与OpenAI关系、对大模型缩放定律信心等,谈到微软如何利用AI提高生产力、降低成本,推动业务增长。英伟达创始人黄仁勋,带领英伟达副总裁Ian Buck等专家,在SC24超级计算大会上发表演讲,介绍英伟达在AI领域最新突破,发布大量AI与超级计算工具,包括Blackwell系统与AI工厂构建,AI崛起对科学研究的变革性影响,AI在药物研发、气候模拟、量子计算等领域应用进展。英伟达与谷歌合作,利用AI超级计算,加速量子计算硬件开发,提升量子比特的质量与性能。本期长期主义,选择微软CEO纳德拉专访、黄仁勋在SC24大会上演讲,瓜哥AI新知发布,六合商业研选精校,分享给大家,Enjoy!微软CEO纳德拉专访:Sam Altman关注AGI与我想法不同、两家紧张关系显著、10倍速押注AI基建、不要与缩放定律为敌
微软CEO萨提亚·纳德拉Satya Nadella接受BG2播客访谈,Bg2 Pod Youtube频道2024年12月12日发布。萨提亚认为OpenAI代表这个时代的新型公司,与谷歌、微软、Meta具有同等地位。认为AI领域竞争将非常激烈,不会是赢家通吃,尤其是在基础设施层,微软优势在于全球范围广泛的Azure基础设施。预测传统搜索将受到挑战,消费者更倾向直接获得答案,不是浏览多个链接。微软将通过Bing、MSN、Copilot等产品应对这一挑战。未来AI应用,将更加依赖AI Agent,这将对商业模式与数据访问权限产生重大影响;预见企业领域将出现AI Agent与AI Agent之间的接口,通过许可来实现数据访问与货币化。关注AI安全风险,认为操作系统需要提供更高级别访问权限与安全防护措施。微软对AI投入由来已久,在深度学习与移动领域错失一些机会。微软投资OpenAI的决策,基于对自然语言处理的长期关注,对Transformer架构与缩放定律的信心。微软AI收入,主要来自API业务,ChatGPT、Copilot等应用的推理成本。微软与OpenAI在AI领域,拥有2年领先优势,这一优势可能难以长期保持。微软正利用AI提高生产力,降低成本,推动自身业务收入增长,客户服务与GitHub Copilot是两个重要的例子。微软资本支出大幅增长,与AI基础设施建设的需求密切相关,认为这种增长最终会放缓,趋于稳定。微软对大型语言模型LLM缩放定律抱有信心,认识到规模化训练的挑战,测试时计算推理时计算的重要性。微软与OpenAI关系,既是合作又是竞争,未来可能会有更清晰分工,在消费者与企业领域都将存在竞争。当比尔与我谈论回顾你担任CEO这段时期时,真是令人惊叹。你1992年加入微软,2007年接管在线业务,2009年推出Bing搜索,2011年接管服务器业务、推出Azure,2014年成为CEO。就在你成为CEO之前,一篇题为微软无关紧要性的著名文章刚发表。自那以后,你把Azure运营收入,从10亿美元提升到660亿美元。业务总收入增长两倍半,总收益增长3倍多,股价上涨近10倍。你为微软股东增加近3万亿美元价值,这简直是取得非凡成功。回顾过去10年,你认为,为了释放价值,改变微软航向,你所做的最伟大的改变是什么?纳德拉:我一直以来都是这样看待,从1919年~现在这段时间,对我说,它就像连续的时期,2014年的任命,是伴随着责任的一件大事。我的感觉是,是把我们成功与不成功的模式进行匹配,多做前者,少做后者。某种意义上说,就是这么简单。我亲身经历1992年加入微软时,那时正是Windows 3.1发布之后不久。我想Windows 3.1是在1992年5月推出,我在1992年11月加入。我当时在Sun工作,正考虑去商学院,我收到微软offer。我说,也许我会去商学院,不知何故,当时招聘我的老板,说服我直接加入微软,这真是最好的决定。说服我的事是,我在1991年Moscone中心参加PDC,看到Windows
NT演示。当时它不叫Windows NT,还有x86。我说,在客户端发生的事,也会发生在服务器上。这是一家平台公司与一家合作伙伴公司,他们将乘风破浪。例如,我们意识到浏览器重要性,参与竞争,最终把浏览器这事做对。我们错过搜索,我们当时觉得最重要的是浏览器,它更像操作系统,我们没有理解新类别,也就是互联网组织层,这个组织层恰好是搜索。我们在移动领域有所涉猎,我们没有真正做好。iPhone出现,我们把云做对了。如果我回顾这些,现在我们正进行第四次转型,也就是AI。所有这些案例中,我认为重要的是,我们追求这些举措,不仅是别人做了,我们需要做一样的事。有时,快速跟进可以,也行之有效,不应该出于嫉妒而做事,我认为这是我们学到最艰难的教训之一。做这件事,是你有做这件事的理由,你可以做得更好,这两者对我都很重要——品牌授权。杰弗里·摩尔曾经对我说,为什么不做你客户期望你做的事,我很喜欢这句话。云就是这样一件事,当我第一次进入Azure时,人们会告诉我,这是赢家通吃的市场,亚马逊已经赢了。我从来不相信这一点,我在服务器领域与Oracle、IBM竞争过。我一直觉得,基础设施领域,永远不会出现赢家通吃的情况。你所需要做的,是以有价值的主张进入游戏。某种意义上,对我说,很多转型都是为确保你认识到自己结构性地位。你真的需要很好理解,你的合作伙伴与客户希望你赢,允许你做什么,先做显而易见的事。这是战略的基础,我认为这才是关键所在。还有一些事,需要培养,比如使命感与目标感,你需要拥有的文化,这些是最必要的条件,甚至是为了让进球有真正的机会。通过认识到你的结构性地位与授权,制定正确的战略,大概是我希望自己做得还不错的事。主持人Bill:我认为你绝对是有史以来最好的CEO人选,3万亿美元是前所未有的。第一,我读到一篇文章说,也许这不是真的,你要告诉我们,你给选择CEO的委员会写了一份10页的备忘录。这是真的吗,备忘录里写了什么。在当时,一开始我完全没有意识到,第一,比尔会离开,第二,史蒂夫会离开,你加入微软,不是为了想着,创始人会退休,会有一个职位空缺,你可以申请。这不是我在微软成长时的思维模式,当史蒂夫决定在2013年8月退休时,这是相当大的冲击。当时,我正运营我们服务器与工具业务,当时是这么叫的,Azure包含在其中,我玩得很开心。我甚至一开始都没有举手说,我想当CEO,甚至不是我考虑过会发生的事。最终,董事会的人找我,当时也有很多其他候选人,甚至包括微软内部的。这个过程中的某个时候,他们要求我们写一份备忘录,这很有意思。那份备忘录,我说的每一件事,其中一个我使用的术语,后来被我写进发给公司的第一封邮件,包括环境智能与无处不在的计算。我把它简化为移动优先,云优先,公关人员过来对我说,这到底是什么?没人会理解环境计算是什么,或者是环境智能与无处不在的计算等其他概念。但这被转化为移动优先,云优先的方法。你如何真正走向世俗转变的方向?然后理解我们结构性地位,思考微软云,我们有哪些资产,为什么M365很重要?我一直抵制的是,按照市场细分的方式来思考我们云,市场将其细分为,这里是IaaS。甚至他描述Azure的方式,对我说,我不会把我的资本分配到这里是Azure的资本,这里是M365的资本,这里是游戏。我认为,这里有一个云基础设施。对我说,这是公司的核心理论。在此基础上,我有一系列工作负载。一个工作负载恰好是Azure,其他包括M365、Dynamics、游戏等。某种意义上说,这些都在那份备忘录中,几乎都应验了。当时一个假设是,我们服务器与客户端业务毛利率高达98%~99%。人们说,好消息,你现在可以转向云,也许你会有一些利润,这就是转型。我直觉是,这会导致毛利率降低,总潜在市场TAM会更大。我们将向更多小企业销售,总的说,甚至可以向上销售,比如消费会增加,我们已经销售了一些Exchange,但如果你想想,Exchange、SharePoint、Teams,现在一切都扩大了,这就是我在备忘录中的基本思路。主持人Bill:是否存在任何文化转变的因素?CEO的聘用,世界上一直都有CEO被聘用,其中许多都失败了,英特尔现在正经历第二次重启。有人认为,微软会成为下一个IBM或DEC,它最好的日子已经过去。你做了什么,你会建议新上任的CEO如何重启文化,并使其朝不同方向发展?纳德拉:我认为我拥有的优势之一是,我是十足的内部人士,我几乎整个职业生涯都是在微软度过。某种程度上,如果我批评我们文化,也是在批评我自己。我突破在于,这感觉不像是一个外人进来批评这里员工;相反,它主要是指责我自己,我几乎是文化的一部分,我不能说任何我没有参与的事。我清楚记得微软第一次成为市值最高的公司,我记得在园区里走来走去,包括我自己在内的所有人,都趾高气扬,好像我们是人类最伟大的成就。我们的才华终于在市值上得到了体现,不知怎么的,这种感觉一直伴随着我。我意识到,这正是你想要避免的文化。从古希腊到现代硅谷,只有一个东西会使文明、国家、公司衰落,傲慢自大。对我说,最大的突破之一是,在我成为CEO几年前,我妻子向我介绍卡罗尔·德韦克写的书。我在思考孩子的教育与养育时,读了这本书,我意识到这是促进学习文化最好的概念之一。我认为我们在文化上的成功,很大程度上归功于这种成长型思维的概念,它不是微软的商标,也不是来自CEO的某种新教条。它适用工作与生活,你可以成为更好的父母、伴侣、朋友、邻居、管理者、领导者。我们接受这个想法,将其定义为从无所不知转变为无所不学。这是一个你永远无法真正到达的终点,当你声称自己拥有成长型思维的那一天,意味着你没有这种思维,这种思维方式对我们非常有帮助。文化变革需要时间、氧气、呼吸空间,它必须是自上而下与自下而上,必须在各个层面逐步推进。我与公司进行的每一次会议,包括我的高管团队,我都会以使命与文化作为开场。这是两个书挡,我也在我的框架中保持着高度的纪律性。过去近11年里,这个框架的弧线始终保持不变:使命、文化、世界观,环境智能、普适计算,是一系列具体的产品与战略。我深思熟虑选择每一个词,一遍又一遍重复它,直到我厌烦为止,我仍然坚持这样做。作为一个大型平台公司,大部分价值获取,是在阶段性转变的头3~4年内决定,那时市场地位已经确立。微软错失了搜索,很大程度上错失移动之后,又在云方面搭上最后一班车,当你开始考虑下一个大的阶段性转变时,似乎你与团队中其他人,比如凯文·斯科特,很早嗅到谷歌在AI方面可能领先,拥有DeepMind,你决定投资OpenAI。是什么让你相信这个方向,与你们正进行的内部AI研究工作相比。首先,我们在AI领域,已经投入很长时间。当比尔在1995年创立微软研究院MSR时,他一直专注自然用户界面,我认为第一个小组专注于语音。里克·拉希德来了,李开复也在这里工作过,我们非常专注破解自然用户界面。语言一直是我们在意的东西,甚至辛顿在这里工作过,当他在微软研究院驻留时,一些早期的深度神经网络DNN工作就发生了,后来谷歌雇用了辛顿。我想说,即使在2010年代初,我们错过一些本可以加倍投入的机会,谷歌在同一时间加倍投入、收购DeepMind,这让我很困扰。例如,Skype翻译是我关注的第一件事之一,它非常酷。这是你第一次看到迁移学习起作用,你可以用一种语言对其进行训练,它会在另一种语言上变得更好。这是我们第一次可以说,机器翻译也是一个深度神经网络。这个意义上说,它是不同的。那时起,我一直对语言着迷。我与凯文一起,我记得马斯克与Sam Altman第一次寻求Azure额度时,我们给了他们一些额度,当时他们更多参与强化学习RL与Dota 2,这很有趣。我们停了一段时间,我不记得具体发生了什么,他们最终去了谷歌云平台GCP。后来,他们回来谈论他们想在语言方面做什么,那是他们谈论Transformer与自然语言的时刻。这要追溯到我思考问题方式,即理解我们的结构性地位。我一直都知道,如果能在某种模型架构方面取得非线性突破,它将对我们有很大帮助。比尔在我们整个职业生涯中,一直强调的一件事是,数字领域只有一个类别:信息管理。他从图式化世界的角度来思考,获取人、地点、事物,建立一个图式,我们走了很多弯路,微软有一个臭名昭著的项目Winifest,目标是图式化一切,以理解所有信息。最终,事实证明这是不可能实现的,我们需要一些突破。我们认为,也许实现这一目标的途径,是通过理解我们是如何图式化的。人脑是通过语言、内心独白、推理来完成。总之,这把我引向OpenAI,引向Sam Altman、Greg、他们团队的雄心壮志。还有一件事是缩放法则Scaling
Law,我认为我读到关于缩放的第一份备忘录是达里奥在OpenAI时与Ilya一起写的。那时我心想,让我们在这方面赌一把,如果会带来指数级性能提升,为什么不全力以赴,真正尝试一下。一旦我们开始看到它在GitHub
Copilot等产品中发挥作用,加倍投入,就变得很容易,这就是它背后的直觉。主持人Bill:我认为,之前几次阶段性转变中,发生的一件事,是一些老牌企业没有足够快跟上步伐,你甚至提到微软可能错过移动或搜索之类的机会。我可以说,尤其是我年纪比较大,经历过这些转变,这次每个人都非常警觉,这是最警觉的一次。我想知道你是否同意这种看法,你如何看待这场竞争中的关键参与者,谷歌、亚马逊、拥有Llama的Meta,还有马斯克也加入这场游戏。我总是会思考,如果拿20世纪90年代末说,当时有微软,还有一些公司,剩下的是其他的。有趣的是,现在人们谈论的是七巨头MAG-7。甚至可能不止这些,每个人都对它保持警惕,他们都有惊人的资产负债表。甚至,我认为,如果考虑到OpenAI,某种程度你可以说它是八巨头MAG-8,我认为这一代公司的代表,已经在某种意义上被创造出来,那就是OpenAI,它有点像这个时代的谷歌、微软、Meta。有几件事,我认为竞争将会非常激烈。我认为,它不会是赢家通吃,可能有些类别是赢家通吃。例如,超大规模方面,绝对不会,世界也会需要多个遍布全球的前沿模型提供商。我认为微软拥有的最佳结构性优势之一是,Azure结构略有不同,我们构建Azure,是为了企业工作负载,具有大量数据驻留。我们有60多个区域,比其他公司更多。我们构建云,不是为了一个大型应用程序,我们构建云是为了许多异构的企业工作负载,我认为长远看,这才是所有推理需求所在,它与数据、应用服务器相连接。我认为基础设施层会有多个赢家,即使在模型层面,每个超大规模公司也会有一堆模型,围绕它们的应用服务器。每个应用,包括现在的Copilot,都只是一个多模型应用,存在一个全新的应用服务器。就像每个人一样,曾经有移动应用服务器,也有Web应用服务器,现在有了AI应用服务器。对我们,那就是Foundry,我们正构建,其他人也会构建,会有多个这样的服务器。应用方面,我认为会有更多,网络效应总是会存在软件层;在应用层,消费、企业等领域将会有不同的网络效应,我认为你必须按层结构进行分析。这七个、八个、九个、十个参与者之间,在堆栈不同层都会有激烈的竞争。正如我经常对我们的团队说的那样,要注意那个不断增加价值的人,这就是你们都在参与的游戏,你们总是在关注谁是从半路杀出的新创业者。至少我会说OpenAI就是这样一家公司,它目前已经实现逃逸速度。主持人Brad:如果我们稍微思考一下,比如应用层,特别是关于消费者AI,Bing是一个非常大的业务。你我讨论过10个蓝色链接,可能是资本主义历史上最好的商业模式,它正受到一种新模式的巨大威胁,这种模式下,消费者只想得到答案。例如,我孩子们会问,我为什么要搜索引擎,而可以直接得到答案?你认为,首先,在答案时代,谷歌与Bing能否继续发展传统的搜索业务?Bing,或者穆斯塔法Mustafa领导的消费者团队需要做些什么,才能与ChatGPT竞争,后者似乎已经在消费者领域脱颖而出?纳德拉:我认为首先最重要的是你最后说的那句话,聊天与答案相结合,那就是ChatGPT,无论是品牌、产品,还是它正变成有状态的。有搜索历史,我认为,这些AI
Agent会更加有状态,这就是我为什么如此兴奋的原因。我一直尝试争取与苹果的搜索合作,已经有10年了。当蒂姆最终与Sam Altman达成协议时,我是最兴奋的人,这更好。让ChatGPT达成交易,比其他任何人都好,我们与OpenAI有商业与投资关系。我看待它的方式是,与此同时,分发很重要,这就是谷歌拥有巨大优势的地方,他们在苹果有分发渠道。他们是默认设置,他们是安卓上默认设置,他们触及广泛用户。我认为,习惯不会消失,你只是在浏览器URL中输入你的查询的次数,即使现在,即使我想使用Copilot,我大部分使用还是Copilot。如果我必须考虑Bing与Copilot之间选择,这很有意思,对一些导航方面的事,我会去Bing;其他几乎所有事,我都会去Copilot,我认为,这种转变正普遍发生。我们可能离购物或旅行的其中一两个AI Agent,甚至一些商业查询只差一步之遥。我认为,当一些商业意图迁移到聊天时,传统搜索的堤坝会决堤。现在,业务基本保持稳定,是商业意图尚未迁移。一旦商业意图迁移,就会发生突然转变。我认为,这是长期趋势。我们管理它的方式是,在穆斯塔法团队中,我们有三个产品,有Bing、MSN、Copilot,他对这三者是什么有清晰的愿景。它们都属于一个生态系统,一个是信息流,一个是以传统方式搜索,另一个是新的AI Agent界面,他们都与内容提供商有社会契约,我们需要推动流量。我们可能需要付费墙,我们需要有广告支持的模式,所有这些,这就是我们试图管理的东西。我们有自己分发渠道,我们仍然拥有的一个优势是Windows。我们可以重新审视这个问题,我们输掉了浏览器之战,甚至Chrome也成为主导浏览器,这真是一场悲剧,我们曾经战胜Netscape,输给谷歌。现在我们正以一种有趣的方式把它夺回来,通过Edge与Copilot。猜猜看?现在甚至Gemini也必须努力争取。至少对Windows,好消息是它是开放系统,ChatGPT有机会。Gemini有机会,你不需要联系微软。你可以尽你所能,超越它。这同时意味着,我们曾经失去它,有时是一件好事,你可以重新赢得一切。对我,即使是Windows的分发渠道,我总是说谷歌在Windows上赚的钱,比整个微软都多,我是说真的。我说,这对微软股东是最好的消息,我们输得如此惨重,以至我们现在可以去竞争,并夺回一些份额。主持人Bill:有一件事,大家都在谈论这些AI
Agent,如果你稍微向前思考一下,你就能想象到各种各样参与者,都想在其他应用与其他可能在系统上的数据上采取行动。微软处境很有意思,它控制着Windows生态系统,它也在iPhone、Android等生态系统上拥有应用,你对此怎么看?这个问题一部分与服务条款有关,一部分与合作关系有关。苹果会允许微软控制iOS上其他应用吗?微软会允许ChatGPT在Windows操作系统上实例化应用,并从应用中获取数据吗?你明白这个问题。例如,Booking.com会允许吉姆与我,未经他们允许,或不知情情况下,在平台上运行交易吗?纳德拉:我认为这是最有趣的问题,某种程度上,目前不清楚这究竟将如何发生。对其中一些问题,存在一种稍微过时的思考方式,也就是,各种类型的商业应用是如何实现互操作的,它们使用连接器实现互操作,人们拥有连接器许可证。出现了一种商业模式,SAP就是一个最经典的例子,只要你拥有连接器,就可以访问SAP数据。我的一部分想法是,当AI Agent与AI Agent之间的接口出现时,类似的情况也会出现。目前还不清楚在消费者领域会发生什么,价值交换主要是广告与流量,而在AI Agent化的世界中,一些东西可能会消失。我认为在消费者方面,商业模式对我说有点不清楚。企业方面,我相信将会发生的是,为了让你在我的行动空间中采取行动,或从我的模式中获取数据,需要有一个与我AI Agent的接口,这个接口是需要获得许可的,我认为这是原因所在。例如,今天,当我访问微软的Copilot时,我拥有与Adobe、我的SAP实例、是我们的CRM实例Dynamics的连接器。值得深思的是:我们最后一次真正使用商业应用是什么时候?我们为所有这些SaaS应用购买许可证,但我们几乎不使用它们。通常,组织中某个人会将数据输入到其中。AI时代,强度会增加,现在所有这些数据都更容易访问,你只需一个查询即可。我可以直接说,我要与比尔开会,告诉我Benchmark投资的所有公司,这个过程涉及从网络与我CRM数据库中的所有信息中提取信息,将所有信息整理在一起,给我一个笔记或摘要。某种程度上,我认为所有这些,都可以由我们以及这些连接来货币化。主持人Bill:更明确说,就像可能真的会很快发生的事,已经有人在谈论它。比如,你会允许Windows操作系统上ChatGPT直接开始打开随机应用吗?纳德拉:现在,这很有意思。这种过度使用计算机的情况,谁来允许?是用户,还是操作系统?比如在Windows,除了设置一些安全防护措施之外,我无能为力。我可以看到,如果它们变得更安全,我最大担忧之一是安全风险。如果恶意软件被下载,该恶意软件开始采取行动,就变得非常危险。我认为是我们将构建到操作系统本身中的,即某些提升的访问权限与特权,让这种计算机使用行为得以发生。归根结底,在像Windows这样开放平台上,用户将拥有控制权。我确信苹果与谷歌,会有更多控制权,他们不会允许这样做。某种意义上,你可以说这是他们优势。最终,这取决于反垄断法如何裁决所有这些问题,看看这一切将如何展开,将会很有趣。主持人Bill:你可以反过来想一下,我们就可以继续了。你会允许Android操作系统,或者我们姑且称之为Android AI或iOS AI,通过智能手机上微软客户端读取邮件吗?纳德拉:我们有点像,例如,今天,我一直在思考的一件事是,我不知道那是价值泄露,还是真的对我们有帮助,我们授权苹果使用Outlook同步功能到Apple Mail,这是一个很有意思的案例。我认为可能泄露很多价值,与此同时,我认为这是我们能够保持Exchange优势的原因之一,如果我们不这样做,问题会更加严重。我认为,如果我们正构建,我们这样做的原因是,我们必须围绕Microsoft 365建立一个信任系统。我们不能只是说,任何AI Agent都可以进来做任何事,这不是我们数据。这是我们客户的数据,它将会是,客户必须允许它,客户的IT人员必须允许它,这不是我能设置的某种一揽子标志。第二件事,是它必须有一个信任边界。我认为我们会采取一种有趣的方式,这有点像苹果智能正做的事,把它看作是我们将围绕M365所做的事。主持人Bill:我今天玩了很多,我强烈建议大家下载它,它非常有趣。主持人Brad:点击这个,穆斯塔法说过,2025年将是无限记忆的1年。比尔与我,从2024年初就开始谈论,我们认为下一个10倍的功能,听起来你同意ChatGPT的观点,它是这种持久记忆与能够代表我们采取一些行动的结合。我们已经看到了记忆的开始,我很确信2025年,似乎这个问题已经基本解决。关于行动的问题,我什么时候才能对ChatGPT说,下周二以最低价格在西雅图预订四季酒店?比尔与我在这个问题上争论了很多,看起来计算机的使用,是这个问题的早期测试案例。你有什么感觉,从现在开始,这看起来对你说是一个难题吗?纳德拉:最开放的行动空间仍然很难,但有两件事或三件事,真的很令人兴奋。除了,我只想说,我确信我们会谈论它,即缩放定律本身、原始模型的能力。一个是记忆,另一个是工具的使用或行动,另一个我想说的是权利。也就是说,你有什么权限?你能得到什么?你必须能够以安全的方式访问事物,必须有人对其进行管理等。如果你将所有这三件事放在一起,这个AI
Agent将更易于管理,当涉及到行动时,它是可验证的,它具有记忆,我认为你就进入完全不同的地方,可以进行更自主工作。我仍然认为,我一直认为的一件事是,我喜欢将Copilot作为AI的用户界面,即使在一个完全自主的世界中,你也会不时提出例外,你会请求许可,你会请求调用等,这个用户界面层将是组织层。这就是为什么我们认为Copilot,是工作、工作成果与工作流程的组织层原因。但就你的基本观点,我不认为这些模型,我甚至会以4o为例,甚至不谈o1,4o在函数调用方面非常好。你可以在企业环境中做的事,比在消费者环境中多得多,消费者网络函数调用很难。至少在一个开放的Web中,你可以对几个网站这样做。一旦你说,让我们预订任何东西的机票,如果后端出现模式更改等,它就会出错,你可以教它如何处理。这就是我认为o1可以做得更好的地方,如果它是一个可验证、自动分级的Rails上流程。我认为我们可能还需要1年、1年半~2年的时间,才能做得越来越多。从企业角度看,可以去执行,这是我的销售AI Agent,这是我的营销AI Agent,这是我的供应链AI Agent,它们可以做更多自主任务,我们在Dynamics中内置了10或15个这样的AI Agent。甚至可以查看我的供应商沟通,自动处理我的供应商沟通,更新我数据库,更改我库存,我的供应,我认为这些都是你今天可以做的事。主持人Bill:穆斯塔法提到近乎无限的内存,我相信你已经听过或者内部也听到。关于这一点,你有什么可以澄清的,还是说会有更多信息后续公布?纳德拉:我认为,某种程度上,这个想法是为你的内存建立一个类型系统,这才是关键,它不是像我每次开始的时候那样。主持人Bill:我明白了,他说的好像你们在这个方面取得内部技术突破。纳德拉:甚至有一个开源项目,我想是,我忘记了,好像是同一批做TypeScript的人在做这个。我们要做的是把内存模式化,使其可用,这样你就可以去...就像每次我开始,假设我正使用一些新的提示词,我知道如何根据我之前做的一切进行聚类。然后,这种类型匹配等,我认为对我们建立一个内存系统,是一个很好的方法。主持人Brad:微软AI业务,已经达到100亿美元。你说这都是推理,你们没有把原始GPU租给别人进行训练,你们推理需求太高了。当我们思考这个问题时,外界很多人对大型工作负载是否正迁移持怀疑态度。如果你考虑一下人们今天正使用的关键收入产品,它如何推动你今天推理收入,它可能与亚马逊或谷歌有何相似或不同之处,我对此很感兴趣。对我们这个事是这样发展的,我们与OpenAI的大部分训练工作,都更像是投资逻辑,它没有体现在我们季度业绩中,它更多体现在我们投资的其它收入中。主持人Brad:这意味着是唯一体现在收入中的东西。或者损失,其他收入或损失。纳德拉:没错。目前,它是这样显示的。大部分收入,或者说所有收入,几乎都是我们的API业务。这个时代热门应用是什么?ChatGPT、Copilot、GitHub Copilot,OpenAI与Azure OpenAI的API,某种意义上,如果你要列出10个最著名的应用,这些可能都会排在前4或前5名,这些是我们增长的最大驱动力。我们与OpenAI的优势在于,我们已经有2年领先优势,几乎没有竞争。比尔评论说每个人都醒了,这可能是真的。我不认为会再有像这样2年领先优势,谁知道呢?你可以这样说,有人推出一个突然让世界惊艳的样本。即便如此,我认为不可能再用另一个基础模型,建立起这样领先优势。我们拥有这个优势,这是一个重要优势,帮助OpenAI通过ChatGPT建立逃逸速度。API方面,我们取得的最大进展,是获得以前不使用Azure的客户,例如Shopify、Stripe、Spotify,他们都是GCP或AWS的客户。突然之间,我们获得更多数字原住民的标志,他们都在某种程度上使用Azure,这为我们开辟新机会。传统企业方面,我认为我们面临的挑战是规模化。人们在一端使用Copilot,在另一端使用Foundry构建AI Agent。这些设计上的胜利,与项目的成功,是一个缓慢的过程,但它们开始规模化。考虑到我们在这个领域已经领先2年,我对这项业务感到更加乐观。我乐观的原因之一是,许多科创公司都在争夺少量H100配额,存在逆向选择问题。在观察到Sun
Microsystems在互联网泡沫期间的遭遇后,我总是担心这种情况,你不能追逐每个构建模型的人。即使在投资者中,情绪也发生转变。现在,人们希望以更轻资本的方式运营,在别人模型之上构建。如果真是这样,所有最初寻求H100配额的人,都可能会改变他们方法,这就是为什么我们在战略上一直很谨慎的原因。主持人Brad:你认为对其他人说,模型的训练与模型集群,是他们AI收入的更大一部分,而不是你们的。纳德拉:我不知道,在这里我是在代表其他人的结果说话,我不知道。我回到之前的问题,其他热门应用是什么?我不知道它们是什么。它们在哪里,它们运行什么模型?它们在哪里运行?我会说,这是我没有,谷歌的Gemini,我不知道。当我查看任何这些AI产品的日活用户数字时,那里有ChatGPT。然后是,即使是Gemini,它的数字也让我非常惊讶。很明显,我认为它会增长,它具有所有的内在分布优势。有趣的是,并没有那么多。我们谈论更多的是AI规模,并没有多热门应用,有ChatGPT、GitHubCopilot,还有Copilot、Gemini,我认为这是我会在日活用户中列出的四个,你还能想到其他的吗?主持人Brad:我认为有很多初创公司的用例,开始获得一些关注,从下往上,它们中很多都是基于Llama构建。纳德拉:如果你说,那是Meta的。如果你说,日活用户超过500万的应用有哪些,我想。主持人Brad:我认为扎克伯格会说Meta.ai有更多等,但我认为你说的对,就你提到的非附属应用而言。纳德拉:扎克的东西,都在他自己俱乐部里运行,他不是在公共俱乐部里运行,没错。主持人Bill:企业方面,编码领域竞争激烈,你们做得很好,有很多风投支持的玩家。在一些生产力应用程序方面,我对Copilot的方法有一个疑问。我想,马克·贝尼奥夫在这方面一直持批评态度,称其为Clippy 2或其他什么。你是否担心有人可能会从头开始考虑AI的第一性原理,在Excel电子表格中,如果做的是AI优先的产品,一些基础设施是否是不必要的?CRM也是如此,用户可能可以忽略许多字段与任务。关于SaaS应用或业务应用,就拿我们自己的Dynamics说。至少我们采取的方式是,我认为业务应用存在的概念,可能在AI
Agent时代都会消解,它们就是带有大量业务逻辑的CRUD数据库。所有的业务逻辑,都将转移到这些AI
Agent上。这些AI Agent,将进行跨存储库的CRUD操作。它们不会区分后端是什么,它们会更新多个数据库,所有的逻辑都将存在AI层。一旦AI层成为所有逻辑所在地,人们会开始替换后端。在我们谈话的时候,我认为我们看到Dynamics后端与AI Agent使用的成功率相当高。我们将非常积极尝试将其全部整合,无论是在客户服务方面,还是在其他方面,另一个令人着迷的是,不仅是CRM,甚至是我们财务与运营方面也在增长,人们想要更多AI原生的业务应用。这意味着业务应用的逻辑层,可以由AI与AI Agent来协调。Copilot到AI
Agent,再到我的业务应用,应该是无缝衔接的。现在,同样,你甚至可以说,我为什么需要Excel?有趣的是,对我说,最令人兴奋的事之一是,Excel与Python的结合,就像GitHub与Copilot的结合一样,就是这样。我们所做的是,当你有像这样的Excel时,这对你们说会很有趣,也就是你应该打开Excel,打开Copilot,开始玩,它不再像以前那样。它就像拥有一个数据分析师,它不再只是理解你现有的数字,它还会为你制定计划,它会实际创建计划,执行它。这就像一个数据分析师,使用Excel作为一种行列可视化工具来做分析的草稿本。Copilot将Excel作为一个工具,利用所有操作空间,它能够生成代码,拥有一个Python解释器,这是一种重新概念化Excel的绝佳方式。某个时候,我可以生成所有Excel,这也是真的,有一个代码解释器,你可以生成任何东西。我认为会有颠覆性的变化,我们处理M365的方式是:首先,将Copilot构建为组织层,即AI的UI,获取所有AI Agent,包括我们自己的AI Agent。你可以说Excel是我Copilot的一个AI Agent,Word是一个AI Agent,它们是专门的画布,例如,当我处理法律文件时,我会将其移至Pages,然后移至Word,然后让Copilot跟进。进入Excel,让Copilot跟进,这是一种思考工作与工作流程的新方式。主持人Brad:今天我经常听到人们为之担忧的问题之一,是人们在这些投资上的投资回报率。你们有超过22.5万名员工,你们是否正利用AI来提高生产力、降低成本、推动你们自己的业务收入?如果是的话,最大的例子是什么?也许更具体一点,当我们邀请黄仁勋来时,我问他,当他营收增长2~3倍时,他预计他的员工人数会增加多少?他说25%。当被问及原因时,他说,我有10万AI Agent帮助我们工作。当你们Azure收入增长2~3倍时,你们是否预计在员工人数方面,也会看到类似杠杆效应?纳德拉:这个问题非常重要,对微软与我们的客户说都是如此,我是这样看待这个问题的。我喜欢这个说法,我一直在学习关于精益生产对工业公司的影响。这很吸引人,它们都是GDP增长的推动者,这真是令人难以置信。他们对精益生产的自律性非常高,好的工业企业可以明确说,通过精益生产,就可以增加2~3个百分点的顺风,即提高价值与减少浪费,这就是他们的实践。我认为AI是知识工作的精益化,我们正认真研究它,即我们如何真正审视。这就是为什么我认为20世纪90年代,我们经历过的业务流程重组,又以一种新的方式回来,可以思考端到端流程的人可以说,如何考虑流程效率?什么可以自动化?什么可以变得更有效率?我们花费大约40亿美元左右,包括从Xbox支持到Azure支持的所有内容。这是一个非常重要的关注点,第1年是前端的转移率。最大好处是AI Agent效率,AI Agent更快乐,客户更快乐,我们成本也在下降。我认为这是最明显的地方,我们联络中心应用也做得非常好。另一个明显例子是GitHub
Copilot,通过GitHub Copilot工作区,这个AI
Agent化的概念首次出现。你从一个问题到计划或到规范,再到计划,然后到多文件编辑,它彻底改变工程团队的工作流程,M365 Copilot是一个全能工具。给你一个感觉,即使在我自己经验中,每次我与客户会面时,我想说,自1990年以来,CEO办公室的准备工作流程没有改变过。我看待这个问题的方式之一,是想象在PC出现之前与之后,预测是如何发生的。曾经有传真、办公室备忘录,然后PC出现了。人们说,我只要把Excel表放在邮件中发出,其他人可以输入数字,我们就可以得到预测。同样的事,现在正在AI时代到处发生。我准备客户会议时,我直接进入Copilot,然后说,告诉我,我需要了解关于客户的所有信息。它会告诉我来自我的CRM、我的邮件、我的团队会议、网络上所有信息,它会进行汇总。想象一下这个层级,所有关于,让我为CEO准备一份简报的概念都消失了,它只是一个查询而已。我生成一个查询,如果他们想注释,分享一个页面。我在与AI推理,并与我同事协作,这就是新的工作流程,这种情况正到处发生。有人给了我一个来自供应链的例子,他们说,供应链就像一个交易台,只是它没有实时信息,事实就是这样。你等到季度结束,CFO会过来敲你的头,说你犯的所有错误。如果财务分析师能够实时提供见解,会怎么样?例如,如果你正在某个特定地区为数据中心签订合同,你应该考虑这些条款,所有这些实时情报,都在改变工作流程与工作成果。有很多应用场景,我认为,为回答你的根本问题,我们目标是通过AI创造运营杠杆,我认为员工总成本会下降,我们人均成本会上升,我每个研究人员的GPU数量会上升,我是这样看待这个问题的。主持人Brad:关于模型缩放与资本支出CapEx的总体情况。我听过你谈论微软资本支出,我想象一下,2014年你接任时,肯定没有想到现在资本支出会是这样。你曾说过这些公司资本支出,看起来越来越像工业公司,而不是传统的软件公司。你们资本支出,从2020年约200亿美元,可能到2025年会高达700亿美元。你们资本支出回报率一直相当稳定,当你观察资本支出与收入之间关系时,会发现两者之间存在非常高相关性。有些人担心这种相关性会断裂,甚至你都说过,可能某个时候,资本支出需要超前收入进行投入。可能会出现一个我们需要为弹性建设的空窗期,你对现在资本支出水平有何看法?这会让你感到焦虑吗,这种增长率何时会开始放缓?首先,我认为作为一家超大规模云计算服务提供商,这在结构上是非常有帮助的,某种程度上,我们已经实践很长时间。数据中心有20年生命周期,你只在你使用的时候,才需支付电力费用,硬件设备生命周期是6年,我们知道如何提高利用率。这里的好消息是,它是一个资本密集型产业,同时也是一个软件密集型产业。你可以利用软件来提高资本的投资回报率ROIC,这就像早期人们问超大规模云计算服务商如何赚钱一样,新的超大规模云计算服务商与老牌主机托管商的区别在于软件,我认为这甚至适用于现在GPU领域。目前发生的一件事,我认为是追赶。过去15年,我们构建了云,突然云中出现新的计量单位,它被称为AI加速器。现在每个应用程序,都需要一个数据库、一个Kubernetes集群与一个在AI加速器上运行的模型。如果你说我需要这三个,你突然需要构建这些AI加速器,来为所有这些应用程序提供服务,这种情况会逐渐趋于正常。第一步是完成基础设施的建设,然后工作负载会趋于正常,之后它会像云一样持续增长,这是一方面。另一方面,是避免一些逆向选择问题。确保不仅是供应方面问题,即不是所有人都只顾着建设,希望需求会随之而来,而是要确保在全球范围内,不同细分市场都有真实、多样化的需求。我一直在关注所有这些,我认为这就是管理投资回报率的方式。利润率会有所不同,这可以追溯到我们早期的讨论,当我考虑微软云时,一个原始GPU的利润率、与Fabric加上GPU,或者Foundry加上GPU,或者GitHub
Copilot添加到M365的利润率,都会有所不同。拥有一个投资组合在这里很重要,如果我观察微软,为什么微软今天在云领域有溢价?我们比亚马逊规模更大,增长速度比亚马逊更快,利润率比亚马逊更高,我们拥有所有这些层,这正是我们在AI时代也想做的事。主持人Bill:关于模型缩放,有很多讨论。过去有关于将集群规模不断扩大10倍的说法,不是一次两次,xAI仍然在宣传朝这个方向发展。最近有一个播客节目,他们彻底颠覆这个观点,他们说,如果我们不再这样做,那就太好了,我们可以直接转向推理,推理成本正降低,我们不必花费所有这些资本支出。你对大型语言模型LLM模型缩放与训练成本、未来发展方向,有何看法?我们在2019年所做的投资,正是基于缩放定律,我仍然坚持这一点,不要与缩放定律作对。一个是,随着集群变得越来越复杂,缩放定律中指数增长将变得更加困难;进行大规模训练的分布式计算问题,变得更加困难。前面存在挑战,我仍然想说,我会让OpenAI的人来谈谈他们在做什么,他们正继续进步。令人兴奋的是,OpenAI已经讨论过,Sam也讨论过他们使用o1所做的事,这种具有自动评分功能的思维链非常棒。测试时,计算或推理时计算是另一种缩放定律。你进行预训练,你有了这种测试时的采样,它会生成可以返回到预训练中的token,产生更强大的模型,然后在推理过程中运行,我认为这是一种提高模型能力的绝佳方法。测试时计算或推理时计算的好处是,有时运行这些o1模型表明有两个独立的方面。当你使用它来生成用于预训练的token时,采样类似训练。当客户使用o1时,他们正使用更多计量单位,你会获得相应的报酬。这里有一个更稳健的经济模型,我喜欢这样。这就是我为什么说,我在全球有60多个数据中心,拥有良好的结构性地位。主持人Bill:关于推理,预训练与推理的硬件架构是不同的。我认为最好的思考方式是,这是一个比例,回到Brad关于投资回报率的问题,我认为这是你真正需要建立一个稳定状态的地方。每当我与黄仁勋Jensen交谈时,我认为他说的对,那就是,你需要每年都买一些,而不是一次性买完。想想看,当你把一些东西折旧6年时,最好的办法是我们一直以来都在做的,就是你每年都买一点,让它老化,你使用领先节点进行训练,然后在第2年,它会被用于推理。我认为,这将是我们整个机群在利用率与投资回报率方面都将进入的稳定状态,然后需求将与供应相匹配。关于大家说指数增长停止了吗?这一点,另一个因素是经济现实也会逐渐停止这种增长,某个时候,每个人都会思考,在经济上,什么是理性的做法?那就是,即使我每年都将能力翻倍,我无法销售这些库存。另一个问题是赢家的诅咒,你甚至不必发表论文。其他人只需看看你的能力,然后进行提炼,这几乎是不可能的。这就像盗版一样,你可以制定各种使用条款,你不可能控制提炼,这是一方面。你只需要逆向工程能力,以一种计算效率更高的方式做。考虑到这一切,我认为人们会对其追逐程度有所限制。现在,每个人都想成为第一,这很好,最终,所有的经济现实都会对每个人产生影响。网络效应在应用层,当网络效应都在应用层时,我为什么要花很多钱在某些模型能力上?主持人Brad:我听你说的,我相信,马斯克说过他要建造一个100万GPU集群。我认为Meta也说过同样的话,我想总统也说过。主持人Bill:我认为他说的是200个,他有点开玩笑说要建100玩个。主持人Brad:我认为他开玩笑说要建10亿个。事实是,与年初相比,基于你看到的关于预训练与扩展的情况,你是否改变了你的基础设施计划?纳德拉:我正构建的,我会说,有点像10倍的增速,也就是,你怎么做,我们可以争论这个持续时间,比如是每2年?还是每3年?还是每4年?这里有一个经济模型。我认为,这是一个有点规范的思考方式,考虑如何清理你的库存,使其合理,或者另一种方式是你设备的折旧周期。除非你发现GPU的物理特性,突然可以顺利反映在我损益表中,利润率与超大规模计算商相同或更好,否则你无法购买,这很简单。我打算做的是,不断前进,并进行构建,我如何推动推理需求,不断提高我的能力,并高效做到这一点。我绝对相信这种方法,Sam
Altman可能有不同目标,他对此持开放态度,他可能说,我想构建,我深信AGI的样子,或者诸如此类,我认为我们之间存在一点紧张关系。主持人Bill:为了澄清一下,我听到穆斯塔法在播客上说,微软不会参与目前正进行的最大模型训练竞赛,这是真的吗?鉴于与OpenAI合作关系,如果微软今天做两个不必要的模型,你将会创建一个冗余的训练集,我们非常克制,这也是我们拥有的战略纪律。我总是向Sam Altman强调,我们把赌注押在OpenAI身上,并说,我们将集中我们计算资源。我们这样做,是我们拥有所有知识产权,这就是我们所获得的回报,我们对此感觉非常好。穆斯塔法是在说,我们大部分重点也在训练后,甚至在验证等方面,这是很重要的一件事。我们将把大量计算资源,集中在添加更多模型适配与有意义的功能上,也拥有一支有原则的预训练团队,这使我们能够在内部进行一些操作。无论如何,我们针对不同用例,都有不同模型权重与模型类别,我们将继续开发。主持人Bill:你对布拉德关于GPU投资回报平衡问题的回答,是否也回答了为什么你们将部分基础设施外包给CoreWeave,也就是你们之间的合作关系?纳德拉:我们那样做,是我们都被ChatGPT与OpenAI API搞得措手不及。实在太多了,我应付不过来。我们完全,这不可能。我无法在供应链计划中做好任何准备,比如,没有人知道会发生什么,2022年11月发生的事,就像晴天霹雳一样,我们不得不赶上。我们说,我们不会太担心效率低下。这就是为什么无论是CoreWeave,还是其他许多公司,我们都在到处购买,这很合理,那是一次性的事,现在一切都赶上了,更多是为了赶上进度。纳德拉:我受电力限制,我不是芯片供应受限,我们在2024年绝对是受限的。我们告诉市场的是,这就是为什么我们对2025年上半年,也就是我们财年的剩余时间持乐观态度。在那之后,我认为我们情况会好转。进入2026年等,我们有一个很好的发展前景。主持人Brad:我听到的是,关于第二层思考,即在o1测试时所做的计算,在那之上进行的训练后工作,正产生非常积极的结果。当你想到这一点时,这也是计算密集型的,你正生成大量tokens。你将这些tokens循环回到上下文窗口中,一次又一次这样做,这会很快复合增长。黄仁勋说,他认为观察o1,推理将达到百万甚至十亿X,只是推理的需求将会急剧增加。在这方面,你是否觉得你有正确的长期计划来扩展推理,以跟上这些新模型?纳德拉:我认为这里有两件事,某种意义上,考虑整个工作负载是非常有帮助的,整个工作负载。就像在AI Agent世界中,你必须要有AI加速器。在OpenAI本身,增长最快的事之一是容器服务。这些AI Agent需要一个草稿板来做一些自动评分,甚至生成样本,这就是他们运行代码解释器的地方。这是一个常规的Azure Kubernetes集群。从一个有趣的角度看,甚至有一个比例,即常规Azure计算、它与GPU与一些数据服务的关系。对你的观点,当我们说推理时,这就是我为什么这样看待它,并说,人们认为AI与云是分开的,AI现在是云的核心组成部分。我认为,在一个每个AI应用程序都是有状态的应用程序,都是AI Agent应用程序的世界中,该AI Agent执行操作。经典的应用程序服务器,加上AI应用程序服务器,再加上数据库,都是必需的。我回到了我基本观点,那就是,我们建立这60多个AI区域。Azure区域,它们都将为全面的AI应用程序做好准备。我认为,这将是需要的。主持人Brad:这次对话中,我们围绕OpenAI谈论了很多,你正管理那里的巨额投资与你自己努力之间的平衡。在Ignite,你展示了一张幻灯片,突出Azure OpenAI与OpenAI Enterprise之间差异。很多都是关于企业级的,你带到台面上的东西。当你看到这种紧张关系时,也就是你与OpenAI之间的竞争,你是否认为他们,ChatGPT很可能会在消费者端成为赢家?你也会有自己的消费者应用程序,在企业方面,你们会分工合作,你如何看待与他们的竞争?纳德拉:我现在看待OpenAI的方式,是把它看作一家非常大规模的公司。它不再仅是一家初创企业,它是一个真正成功的组织,拥有多条业务线、多个细分市场与各种产品。我对待它的方式与对待其他重要的合作伙伴一样,我不认为他们只是简单的合作者。相反,我会考虑他们利益与我们利益,探索如何使双方利益保持一致。我认为OpenAI是一个知识产权合作伙伴,我们为他们提供系统知识产权,作为回报,他们为我们提供模型知识产权。这种互惠关系,凸显我们对彼此成功的深切关注。我将他们视为重要的客户,意味着我想像服务其他大型客户一样,为他们提供服务,确保我们有效满足他们需求。最后,还有一个竞合关系需要考虑。无论是消费领域的Copilot,还是M365的Copilot,我都会关注我们竞争与合作的重叠之处。最终,这些元素会有一些交叉,我也认识到,他们与苹果的交易,可以被视为对微软股东有利的。关于API的差异,客户可以自由选择使用哪个API。例如,Azure有它自己一套风格,如果一个Azure客户想使用其他Azure服务,选择Azure与Azure Mac会更简单。相反,对在AWS上喜欢无状态API用法的客户,他们可以轻松选择使用OpenAI。通过这种方式,拥有这两种类型的分发方式,可以有利于微软地位。主持人Bill:我想说,硅谷社区,甚至更广泛说,整个商业界都对微软与OpenAI之间的关系感到好奇。我上周参加DealBook活动,Andrew Sorkin就此问题向Sam施加很大压力。我猜想,马斯克对此发表了一些看法,你们能告诉我们什么吗?纳德拉:我认为这些,都应该由OpenAI董事会、Sam、Sarah、Brad、他们团队来决定他们想做什么,我们希望提供支持。在这方面,我们是一个投资者。我想说我们非常关心的一件事是,OpenAI继续取得成功,这符合我们的利益。我还认为,这家公司是这个平台转型中的标志性公司。OpenAI做得好,世界会更好,这就是我们最根本的立场。之后,紧张关系出现的速度,就像所有这些合作关系一样,是显著的,其中一部分是竞争的紧张关系。另一部分是Sam作为一位令人难以置信的企业家,拥有伟大抱负与想要快速前进的步伐,我们必须平衡所有这些因素。他想做的事需要得到满足,这样他才能有效追求他的目标。他也需要考虑到我们方面所要求的纪律,考虑到我们可能面临的整体限制。我认为我们会解决好的,这里的好消息是,我认为在这个框架下,我们已经取得长足进步。这5年对他们说很棒,对我们说也很棒。至少就我而言,我会继续坚持下去。我想尽可能延长这种伙伴关系,建立长期稳定的伙伴关系,只会对我们有利。主持人Brad:当你考虑到,单独的融资,将这两个业务分开时,你们是否想相对快速完成?我谈到过,我认为他们下一步,如果他们成为一家上市公司会很好。你认为这是他们前进的道路吗,还是你认为它会保持我们现在这种关系?纳德拉:这是我想小心谨慎的地方,我不想越界,某种意义上,我既不是,我们也不是董事会成员,我们像你们一样是投资者。某种程度上,我将接受他们给出的任何暗示,我很清楚我希望支持他们做出的任何决定。对我来说,或许作为一个投资者,商业与知识产权伙伴关系才是最重要的。我们想确保我们在这其中保护我们的利益,如果可以的话,进一步加强这些利益。我认为,现在,像Sarah、Brad、Sam这样的人,都是非常聪明的人。他们为了实现他们使命目标,什么才是最有意义的,我们就会支持什么。主持人Brad:我想以开放与封闭这个话题来总结,我们应该如何合作,以引导安全AI的发展。你能跟我们谈谈你如何看待这些差异与争论、这样做的重要性吗?像Bill与我这样有很多开源的支持者,我们也听到批评的声音,你也说过每个人都可以提炼出一个模型,我们会看到一些被用于我们不乐见的用途。你认为我们应该如何作为一个国家与企业集合起来,共同引导安全AI的发展?我认为我一直将开源与闭源,视为创造网络效应的两种不同策略,我从来没有把它们看作是纯粹的信仰之争。我认为它们更像是,两种不同方式,这就是为什么我认为Meta与Mark正做的事非常聪明,某种意义上,他甚至试图将他的补充品商品化,这对我说非常有意义。如果我处在他的位置,我也会这样做,就是让全世界都达成共识。我认为他公开而雄辩谈论他希望成为LLM的Linux,我认为这是一个很好的模式。我认为那里甚至有一个模式,有时回到你们一些经济学问题,我认为在博弈论上,一个联盟,可能是一个比任何一个玩家试图独自完成的更好模型。不像Linux基金会,那里的贡献主要是APEX的贡献,我总是说,如果没有的话,Linux就不会发生,微软是Linux最大贡献者之一。IBM也是,甲骨文也是等。我认为开源可能真有它的位置,这是一种很好的机制,当多个实体走到一起并进行协作时,这是一种聪明的商业策略。闭源,可能在闭源的环境中也有意义。我们有很多闭源产品,安全是一个重要,但正交的问题。人们可能会争辩说,如果每个人都在检查它,在一方面或另一方面就会有更多安全性。我认为最好在资本主义中处理这些问题,至少,最好有多个模型,让它们之间存在竞争,不同公司会选择不同道路。我们应该非常严格,政府也会要求这样做。我认为现在科技界不可能说,我们稍后会看到意外后果会怎样。没有哪个政府、社区或社会会容忍这一点。所有这些AI安全机构,都会保持相同标准。就你提到的国家安全,如果存在国家安全泄露的挑战,人们也会担心这一点。我认为国家与国家政策,将对这些模型中的哪一个、监管制度是什么样有很大发言权。主持人Brad:真难以置信,我们进入后ChatGPT时代才仅22个月。当我回想你们关于阶段性转变的框架时,你会发现,随着我们迈入AI时代,微软地位非常有利。恭喜你们过去10年取得的成就,真是令人瞩目,这很棒。我想我与比尔,都对看到你们领导力感到兴奋,你、马斯克、扎克伯格、桑达尔等,你们真的在为美国队在AI领域开疆拓土。我觉得我们都非常非常乐观,我们相对世界其他国家将如何定位,感谢你们抽出时间与我们交流。黄仁勋在SC24大会宣布:英伟达AI集群产品路线图、全行业应用、与谷歌合作量子计算
英伟达团队在SC24超级计算大会上的主题演讲,2024年11月18日公开发表。CUDA与CUDA-X库的成功:NVIDIA通过CUDA及其丰富的CUDA-X库超过400个,将计算成本降低100万倍,推动加速计算普及,并将其应用于医疗、通信、制造等众多领域。新的库,例如cuPyNumericNumPy的GPU加速版本,进一步扩展了其应用范围。AI的崛起及其对科学的变革性影响:AI已成为新计算时代核心,它源于科学计算创新,现已反过来加速科学方法。AI在数据分析、模拟加速、实验控制、预测模型构建方面展现出巨大潜力,推动药物研发、基因组学、量子计算等领域进步。Blackwell系统及其AI工厂构建:NVIDIA推出Blackwell系统,整合七种不同芯片类型的强大AI超级计算机,用于大规模AI模型训练与推理。Foxconn正在建设新的Blackwell生产设施,NVIDIA Omniverse用于加速工厂建设。这标志着AI工厂兴起,将大规模生产数字智能。加速计算在超级计算中主导地位:加速计算已成为超级计算首选技术,在全球Top 100超级计算机中占比超过70%。cuPyNumeric发布:cuPyNumeric是NumPy替代品,允许Python开发者在GPU集群上自动并行化程序,无需重写代码,大幅提升数据分析速度。Gordon Bell奖提名项目:多个利用NVIDIA加速计算平台的项目入围Gordon Bell奖,涵盖分子动力学、蛋白质设计、基因组学、气候建模等领域,展现在科学研究中广泛应用。能源效率的提升:加速计算不仅提升性能,还能显著降低能耗。通过Grace Hopper与H100 GPU等技术,在诸多应用中实现显著能效提升。Grace与Vera CPU发布:NVIDIA推出高性能、低功耗Grace CPU与下一代ARM CPU Vera,进一步完善其产品线,满足不同计算需求。高速互联技术的进步:NVLink、InfiniBand、Spectrum X Ethernet等高速互联技术确保大规模AI与HPC工作负载的扩展性与高性能,显著降低延迟,Spectrum X Ethernet在Colossus超级计算机中展现优异性能。AI推理的加速与NIM微服务的应用:NVIDIA推出NIM推理微服务,大幅提升AI模型的部署与推理效率,并将其应用于天气预报、药物研发等领域。Earth-2 NIM与ForecastNet NIM为气候科技提供新的AI能力。BioNemo框架开源与DiffDoc 2.0发布:BioNemo框架开源,加速药物研发中AI应用。DiffDoc 2.0的发布,提高药物与靶蛋白相互作用预测的速度与精度。Alchemy平台的发布:Alchemy平台提供化学相关的NIM,加速新化合物发现。Omniverse
Blueprint发布:Omniverse Blueprint提供实时数字孪生技术,加速工程设计与仿真流程。AI在科学实验中的应用:AI应用于射电望远镜数据处理、粒子物理数据分析,量子计算硬件开发,提高数据处理效率与科学发现速度。与Google的量子计算合作:NVIDIA与Google合作,利用AI超级计算加速量子计算硬件开发,提升量子比特质量与性能。黄仁勋:超级计算机是人类最重要的工具之一,推动科学突破,拓展知识边界。在英伟达,我们在超级计算机上的工作深刻塑造我们历程。2006年,我们发布CUDA,推出全球首款用于科学计算的GPU。2008年,日本东京工业大学Subame,成为全球首个采用英伟达加速技术的超级计算机。2012年,英伟达为全球最快的超级计算机,橡树岭国家实验室的Titan,提供动力。2016年,英伟达推出首个AI超级计算机DGX-1,我亲自将其交付给OpenAI。从全球首款用于超级计算机的GPU,到如今为全球构建AI超级计算机,我们在过去18年里,在超级计算领域的历程,塑造今天的英伟达。CUDA诞生以来,英伟达将计算成本降低100万倍。对一些人来说,英伟达就像一台计算显微镜,让他们能够观察到极其微小的东西;对另一些人来说,它像一台望远镜,探索难以想象的遥远星系;对许多人来说,它是一台时间机器,让他们能够在有生之年完成毕生事业。英伟达CUDA已成为少数几个普遍存在的计算平台之一,真正的明星是CUDA-X库,它们是加速计算的引擎。OpenGL是连接计算机图形与加速器的API一样,CUDA-X是将新的应用程序连接到英伟达加速的特定领域库,CUDA-X为英伟达打开医疗保健、电信、制造与运输等新市场与行业。芯片制造中,cuLitho加速计算光刻;电信领域,Arial在CUDA处理无线电;医疗保健与基因组学领域,Parabricks加速基因序列比对与变异检测;对数据科学与分析,cuDF超级增强数据处理,加速SQL、Pandas、Polars、Spark等流行库;cuVS加速矢量数据库索引与检索,这对构建AI Agent至关重要。英伟达CUDA-Q在CUDA执行量子电路模拟;Omniverse是一套库,可以实现与操作用于机器人技术、制造与物流的数字孪生体。本周,我们发布一个重要的新库cuPyNumeric,这是NumPy的GPU加速实现,NumPy是数据科学、机器学习、数值计算中最广泛使用的库。凭借超过400个CUDA-X库,英伟达几乎在所有科学与工业领域都加速重要应用,推动GPU采用率提高、生态系统合作伙伴增加与开发增长的良性循环。我们最具影响力的库之一是QDNN,它处理深度学习与神经网络操作。QDNN加速深度学习框架,使大型语言模型在过去10年实现令人难以置信的100万倍扩展,导致ChatGPT诞生。AI到来,一个新的计算时代开始。计算堆栈的每一层都被重新发明,从使用规则与逻辑进行编码的软件,到机器学习的模式与关系,从在CPU上运行的代码、到由GPU处理的神经网络。AI源于我们在科学计算方面的创新,如今科学正在利用AI来增强科学方法。我在2018年超级计算大会上谈到这种融合,那时起,AI与机器学习,已被集成到几乎所有科学领域。AI正在帮助分析海量数据、加速模拟、实时控制实验、构建能够彻底改变药物研发、基因组学与量子计算等领域的预测模型。利用AI,我们可以前所未有的计算规模模拟物理过程。这种变革性影响,已在最高层面得到认可。辛顿与约翰·霍普菲尔德因在神经网络方面开创性工作,获得诺贝尔物理学奖;德米斯·哈萨比斯、约翰·贾姆珀、大卫·贝克因在蛋白质预测方面的突破性进展,获得诺贝尔化学奖;这仅是开始。随着模型规模、数据、算力扩展,规模定律表明AI模型性能具有可预测的改进。该行业的当前轨迹,每年将算力提高4倍,预计在10年内将增长100万倍。相比之下,摩尔定律每10年实现100倍增长。这些规模定律不仅适用于大型语言模型的训练,随着OpenAI Strawberry出现,也适用于推理。未来10年,我们将加快路线图,跟上训练与推理规模的需求,发现下一阶段的智能。这就是Blackwell,今天的AI计算机与以前构建的任何计算机都不一样。AI计算的每个阶段,从数据处理、到训练、再到推理,都对从GPU、到内存、再到网络与交换机的每个组件提出挑战。对AI工厂大量投资,使每一个细节都至关重要:首次训练时间、可靠性、利用率、能效、Token生成吞吐量与响应速度。英伟达采用极端协同设计,优化从芯片与系统、到软件与算法的每一层。Blackwell系统集成7种不同类型芯片。每个液冷机架的功率120千瓦,重3,000磅,包含18个计算托盘与9个NVLink交换机,将144个Blackwell芯片(超过2英里的NVLink铜缆)连接成一个具有1.44
AI艾克萨浮点运算能力的巨型虚拟GPU,令人难以置信,Blackwell正在全面生产中。富士康正在美国、墨西哥与中国台湾建设新的Blackwell生产与测试设施,并使用英伟达Omniverse来尽快启动这些工厂。在创建第一个GPU 25年后,我们重新发明计算,引发一场新的工业革命。一个全新的行业正在兴起,AI工厂正在大规模生产数字智能与制造AI,AI将加速科学发现,研究人员将拥有AI驱动的助手来生成与探索有前景的想法。商业领域,AI将与各个职能部门的团队一起工作,营销、销售、供应链、芯片设计、软件开发等。最终,每家公司都将利用数字AI Agent,提高生产力,促进增长,创造新的就业机会。物理世界中,AI即将驱动能够适应、执行各种任务的人形机器人,只需最少的演示即可。制造业、物流业、服务业,将受益AI带来的生产力增长,这将重塑全球经济。站在如此变革的边缘,令人难以置信。我们很高兴将我们今天设计的令人惊叹的计算机付诸实践,见证AI与计算如何在未来10年彻底改变全球各个万亿美元规模的产业。让我们一起构建未来,祝你在2024年超级计算大会上度过愉快时光。NV副总裁Ian Buck:2024年SC24大会上,石溪大学杰出教授Ari Kaufman教授因2004年具有里程碑意义的论文《用于高性能计算的GPU集群》,而荣获时间考验奖。Kaufman教授使用流体动力学方程,在首个大型GPU集群上模拟纽约时代广场空气污染物的扩散。他的研究,为当今加速计算奠定基础,证明GPU在大规模模拟中的强大功能。来自英伟达全体人员祝贺Kaufman教授获得这一实至名归的认可,你的开创性贡献,体现推动该领域进步的精神。这项突破性工作,加速计算已成为超级计算首选技术。此图表显示全球百强最快系统中,加速与非加速超级计算机的历史。过去5年中,加速系统数量每年增加8个,从33%增长到超过70%。我们目标是帮助世界加速所有工作负载。考虑到各种编程语言、广泛开发者经验与需求、不断涌现算法与技术,这无疑是雄心勃勃的目标。为支持我们的开发者社区并满足他们需求,我们今天提供450多个库,许多库都针对不断发展的开发者环境中特定领域量身定制。以Python为例,Warp是我们用于构建与加速数据生成与空间计算的Python框架。HPC中大多数基于物理的模拟器,都会进行某种形式空间计算,无论是在量子化学、气候建模、流体动力学中,所有这些都在三维空间中运行。通过在Warp中表达这些计算,可以对其进行自动微分并集成到AI工作流程中。当今最流行的Python库之一是NumPy,NumPy是Python开发人员进行数学计算的基础库,被超过500万名科学与工业领域的开发人员使用,仅上个月下载量就达3亿次。超过32,000个GitHub应用程序,在天文、物理、信号处理等重要的科学领域使用NumPy。当科学家们希望扩展应用程序,以使用大型HPC集群时,他们通常需要依赖更低级别的分布式计算库,例如OpenMPI。如果不必这样做?如果你的NumPy程序,可以在GPU集群自动并行化,无需将其完全重写为不同的超级计算应用程序?今天,我们宣布推出cuPyNumeric,这是NumPy库的直接替代品。借助cuPyNumeric,研究人员可以使用Python编写代码,轻松扩展工作,无需掌握分布式计算方面的专业知识。cuPyNumeric使用NVIDIA最新的通信与数学库,利用标准NumPy数据类型在GPU集群中自动分配数据,结果令人难以置信。Slack研究团队正在利用cuPyNumeric分析来自LCLS X射线激光器的TB级数据,该激光器每秒发射120次。在60小时的束流时间内,他们将数据分析速度提高6倍,能够做出实时决策并发现材料特性。这种加速将他们发表前的分析时间,从3年缩短到仅6个月。cuPyNumeric的早期采用者,包括斯坦福大学湍流研究中心致力计算流体动力学求解器、洛斯阿拉莫斯国家实验室正在为Venato超级计算机扩展机器学习算法、马萨诸塞大学波士顿分校正在研究显微镜成像实验中的熵产生率。超级计算领域最高荣誉之一是戈登·贝尔奖,该奖项表彰在高性能计算领域取得的杰出成就。今天,我们庆祝五个入围团队,他们突破性研究,利用英伟达加速系统,涵盖分子动力学、蛋白质设计、基因组学与气候建模等多个领域。来自卡纳维拉大学与墨尔本大学的Giuseppe
Barca及其团队,扩展一种计算原子能的替代方法,与其他GPU加速方法相比,速度提高3倍,在多个GPU实现超线性扩展。稍后,我们将听取KAUST的David Keyes博士,关于他们在基因组上位性与气候模拟方面的开创性工作的介绍。首先,让我们转向阿贡国家实验室的Arvind
Romanathan博士,讨论他们在蛋白质设计方面的进展。Arvind
Romanathan博士:蛋白质设计中一个关键任务,是提出具有相同功能,但与我们40亿年进化历程中所见不同的新型蛋白质。实验数据出现的速度,远低于模拟等计算工作流程的预期速度。蛋白质设计,目前在AI领域非常热门。它正在经历一场巨大变革,方式是AI模型的部署与开发,这是构建多模态事物multimodal的首次尝试之一。我们提供自然语言描述,我们表示蛋白质序列。我们使用它来训练大型语言模型,使我们能够交互、生成新的设计。我们从这篇论文中了解到的关键内容之一是,我们有可能在不止一个平台上,而是在多个平台上同时建立此工作流程。我们碰巧使用几乎所有英伟达的架构,从A100到Grace Hopper芯片。我们观察到一件很酷的事,在预训练模型方面,我们可以在系统上以混合精度运行实现接近三亿亿次浮点运算3 exaflops。这种运行规模,我认为,我们实际使用了一半的系统来实现这种性能,这真是令人难以置信。NV副总裁Ian Buck:加速工作负载的关键优势与动力之一,是降低能耗。超级计算领域,这一点尤为明显,摩尔定律的终结,最初也是在这里被预测到的。早在2010年,橡树岭国家实验室等超级计算中心认识到,使用CPU构建的下一代超级计算机的能耗,甚至会超过美国主要城市。这一事实,也适用应用程序本身。即使加速服务器的功耗可能高于标准CPU系统,但显著缩短求解时间,也会导致计算解决方案所需的总能量大幅减少。例如,得克萨斯高级计算中心与ANSYS,使用Grace Hopper系统,在一个包含25亿个单元的问题上,实现110倍加速与6倍能效提升。在NREL,H100 GPU将风电场模拟的能效提高4倍。台积电使用cuLitho进行半导体制造,将能耗降低9倍。东京大学地震研究所,与海洋地球科学技术厅JAMSTEC、理化学研究所合作,利用EuroHPC ALPS系统在地震模拟中实现86倍加速与32倍能效提升。像大型语言模型LLAMA 3.1
405B,需要多个GPU协同工作,才能获得最佳性能。为充分利用这些GPU,我们推理软件栈提供基于GPU之间快速数据传输的优化并行技术。英伟达NV Switch技术,为Hopper配备卓越的GPU到GPU吞吐量,当与我们TRT-LLM软件栈集成时,可以持续改进性能。这确保Hopper能够为405B等模型,实现更高性能与更低每token成本。仅2个月内,在推测执行、NVLink通信、专用AI内核方面的创新,我们看到超过1.6倍的性能提升。我们没有止步于Hopper,我们正在积极创新,利用Blackwell强大功能来构建下一代AI工厂。我们很高兴能够与客户合作,支持我们在不断发展的解决方案生态系统中的成功。我们合作伙伴提供各种各样系统,从Hopper到Blackwell。H200 NVL,专为风冷灵活HPC解决方案而设计,在一个标准PCIe规格中具有4GPU NVLink域。我们还在与合作伙伴合作,将Grace
Blackwell配置推向市场。这些包括GB200 Grace Blackwell
NVL4超级芯片,它在一个标准PCIe规格中集成4 GPU
NVLink域与一个双Gray CPU,用于液冷科学计算。我们参考架构,Blackwell解决方案的推出进展顺利,使合作伙伴能够快速将产品推向市场,添加他们自己的定制化功能。我们目标是加速每项工作负载,推动发现、最大限度提高能效,这包括可以利用Grace Hopper与Grace Blackwell等紧密耦合的CPU与GPU产品的加速与部分加速应用程序。并非所有内容都能立即利用加速技术,对这部分长尾应用,在受功率限制的数据中心环境中使用最高能效的CPU,可以最大限度提高工作负载吞吐量。Grace CPU专为高性能与高能效而设计。Grace具有72个ARM
Neoverse V2内核与NVIDIA可扩展一致性结构,可提供每秒3.2 TB带宽,是传统CPU两倍。与LPDDR5X内存搭配使用时,它可以实现每秒500 GB的内存带宽,功耗仅为16瓦,这只有传统DDR内存功耗的1/5。这些创新使Grace在天气预报与地球科学等工作负载方面,与x86系统相比,性能提升高达4倍,使其成为高能效高性能CPU计算的理想解决方案。2024年早些时候在Computex展会上,黄仁勋发布我们下一代基于ARM的CPU Vera,计划2026年推出。它将作为独立产品、与Rubin GPU紧密集成的解决方案提供。通过关注数据移动,我们下一代CPU结构与EnvyLink芯片间技术,旨在最大限度提高系统性能。VARO将是一款多功能CPU,能够在各种计算与内存密集型任务中提供卓越的性能与效率。这不仅关乎单节点计算,网络在当今的加速计算平台中发挥至关重要的作用。传统的以太网,是为企业数据中心设计,针对单服务器工作负载进行优化。英伟达NVLink与InfiniBand或Spectrum X以太网相结合,为AI训练与推理数据中心设定黄金标准。这种组合,实现极高的可扩展性与峰值性能。NVLink交换系统,允许GPU无缝作为一个整体进行扩展与通信。对东西向计算结构GPU之间快速数据交换至关重要的地方,英伟达Quantum InfiniBand与Spectrum X以太网提供实现超越NVLink域扩展所需的低延迟、高吞吐量基础设施。对南北向流量,BlueField
DPU优化数据中心与外部网络之间数据流,确保效率与安全。这些技术共同构建强大、有弹性的基础设施,可用于大规模AI与HPC工作负载。英伟达Quantum
InfiniBand,提供无与伦比的高速数据传输与极低的延迟,这对并行处理与分布式计算至关重要。Quantum X800平台,具有一个144端口交换机,每个端口速度800 Gbps,由ConnectX8 SuperNIC驱动。它们共同支持MPI与NCCL卸载,能够通过NVIDIA Sharp实现14.4 teraflops的网络内计算。如果没有Sharp,所有约简操作都需要重复的点对点传输。Sharp可以通过直接在网络交换机中执行数据约简来优化这一点,减少数据传输并提高效率,这使得AI应用程序的有效带宽提高1.8倍。长期以来,一直使用InfiniBand进行科学模拟的微软Azure,将成为首批采用先进Quantum X800来开发尖端万亿参数模型的公司之一。许多客户希望使用以太网,而不是InfiniBand来简化他们操作。AI工厂在GPU计算周期与集体操作数据传输之间交替进行,由此产生的网络延迟会导致尾部延迟,减慢整体工作负载的性能。此直方图比较显示Spectrum X与传统以太网相比如何降低尾部延迟。在多租户部署中,具有噪声隔离功能的Spectrum
X消除网络热点,可以提供2.2倍all-reduce性能提升。通过动态重新平衡,以避免链路故障,Spectrum X将点对点带宽提高1.3倍。这为最大规模AI数据中心部署,带来卓越性能与可靠性。上个月,xAI宣布世界上最大的加速系统Colossus超级计算机。该系统由戴尔与Supermicro公司构建,拥有10万H100
GPU,用于训练GroK 3,这是世界上最先进的大型语言模型之一。我们与合作伙伴密切合作,以创纪录的时间部署Colossus,从设备交付到训练仅需19天,并在122天内全面投入生产。目前为止,xAI对系统性能感到非常满意。Spectrum X以太网实现令人印象深刻的95%理论数据吞吐量,传统以太网解决方案仅为60%。该系统保持零延迟下降,网络结构的三层之间没有数据包丢失,此次部署为大规模AI设定了新的标准。我们非常兴奋宣布Spectrum X将登上TOP500榜单,有两套基于Spectrum X的系统位列前50名。这两套系统均基于戴尔,一套由GMO互联网集团构建,另一套是我们自己英伟达以色列One超级计算机,我相信这只是众多成功案例中的首批。我们以1年的节奏构建我们平台,不断改进每个组件,重新定义性能与效率。这不仅关乎硬件,持续的软件优化是关键。每个周期中,我们都会增强我们软件栈,以从我们GPU、CPU、DPU中提取更多价值。这意味着用户可以持续利用尖端技术而不会中断,带来持续改进。2025年,Blackwell Ultra将进一步提升标准,随后是Rubin,确保每一代产品都建立在前一代基础上,在AI与高性能计算领域取得更大突破。过去1年,我们见证AI驱动的新用例、数据集、基础模型的爆炸式增长。一个突出的例子,是Evolutionary
Scales利用ESM3生成模型加速药物发现工作,该模型用于蛋白质设计。ESM3基于NVIDIA加速计算平台构建,在超过20亿个蛋白质序列上进行训练,使用的数据量是前身ESM2的60倍,算力是25倍。现在让我们听听KAUST的David Keyes博士,介绍他们关于基因组学与气候建模的2个戈登贝尔奖决赛入围作品。David Keyes博士:全基因组关联研究,探索生物学的中心法则,基因型决定表型。这里的基因型,不仅包括基因组因素,还包括人口统计学、饮食、吸烟习惯等环境因素,目标是从大型个人数据库入手。我们使用包含30.5万人的英国生物样本库,将他们基因组与广义基因型相互比较,再与他们易患疾病的患病率进行比较。我们能够将拥有真实数据的30.5万名患者数据,扩展到由1,300万名患者生成的合成数据库。这个数字,足以让世界上超过一半的国家对它们人口进行全基因组分析。我们将代码,从一个系统迁移到另一个系统,几乎没有遇到任何困难。特别是,我们在 Summit的V100、Leonardo的A100、Hopper的H100Alps的GH配置上运行程序。节点性能看,Hopper是最令人感兴趣的,特别是它提供FP8精度。我们很乐意尽可能接近低精度端,鼓励其他领域科学家尝试利用这一点。这是非常令人兴奋的前景,许多未来的智慧医疗与智慧农业领域,将大大受益普及化的全基因组关联研究。目前有由45家机构参与的项目,正在进行第六代未来气候生成,称为CMIP。他们开始受到数据量日益增长的限制,每个机构都投入数亿个核心小时,来生成未来气候数据。气候模拟是一种统计模型,试图重现混沌模拟的统计数据。我们将可查询距离从早期模型的大约100公里,缩短到大约3.5公里。我们在ALPS系统获得0.8艾字节的混合精度算力,这使用2,000个节点。我认为数字孪生技术正在重现现实世界的统计数据。通过结合能够重现基于偏微分方程模型的统计数据的高分辨率数据压缩技术,使地球的完整二维表面可见,我们认为我们普及了气候模拟。NV副总裁Ian Buck:看到研究人员正在努力利用AI力量来推动科学发展,真是令人难以置信。训练AI模型很重要,真正的价值在于部署这些模型,并在推理中使用它们,这样它们才能实时生成洞见与预测。为让用户更容易在生产环境中扩展AI模型,我们推出NVIDIA NIM 推理微服务。我们与全球模型构建者合作,将他们模型转换为高性能、高效的运行时NIM。这些 NIM的Token吞吐量,比标准AI运行时快2~5倍,提供最佳的总拥有成本。天气与气候影响着广泛行业,包括交通运输、能源、农业与保险,造成超过10亿美元损失的极端天气事件的频率,正在以惊人速度增加。1980年以来,美国严重风暴事件的经济影响,增加25倍。及时、准确的天气建模数据的重要性,达到历史最高水平。The Weather
Company使用NVIDIA GPU进行公里级模拟,图形模型的吞吐量提高10倍,能效提高15倍,高于传统基于CPU的模拟。为进一步提高速度与效率,他们还在与NVIDIA合作,采用基于AI的方法来生成高分辨率的预报数据。今天,我们宣布推出2个用于Earth-2的新型NIM,为气候技术应用提供商提供新的AI功能。NVIDIA的Earth-2
CoreDiff,是一种用于公里级超分辨率的生成式AI模型。2024年早些时候,我们展示了它在中国台湾上空超分辨率台风的能力。今天,Earth-2 NIM for
CoreDiff现已推出。CoreDiff比使用CPU的传统高分辨率数值天气预报快500倍,能效高10,000倍。我们与美国气象预报机构合作,为整个美国大陆开发CoreDiff模型,面积是最初基于中国台湾模型的300倍。并非每个用例,都需要高分辨率预报。一些应用程序,可以从较粗分辨率的大型集合中受益。最先进的数值模型,如GFS计算限制,仅限20个集合。今天,我们还宣布ForecastNet
NIM可用。它可以比数值天气模型快5,000倍提供全球两周预报,可以使用数千个成员的集合,为气候技术提供商带来新机遇。他们可以评估与极端天气相关的风险,预测当前计算方法可能遗漏的低概率事件。生物制药领域正在发生一场新的工业革命,动力源于AI。NVIDIA BioNemo框架让科学家可以选择各种AI模板来构建自定义模型。BioNemo专为制药应用而设计,与当今使用的其他AI软件相比,训练性能提高一倍,BioNemo正在加速全球许多制药公司的计算机辅助药物研发。今天,我们宣布BioNemo框架,已作为开源存储库在GitHub推出,我们很高兴看到AI能为医疗保健行业未来带来什么。今天,我们宣布推出DiffDoc
2.0,这是用于预测药物与靶蛋白相互作用的NVIDIA NIM微服务。DiffDoc 2.0比1年前发布的1.0版本快6倍。我们性能提升的主要驱动力之一,是新 QEquivariance库,它加快分子预测中必要的数学运算。DiffDoc已使用Plinder数据库,世界上最大的分子蛋白质结构数据库,进行重新训练,提高DiffDoc准确性。这个新版本,旨在解锁药物发现中虚拟筛选的新规模,我们很高兴看到我们研究人员生态系统接下来会用它做什么。AI改变药物发现中蛋白质研究,我们相信AI有可能在数字化学领域产生同样影响。宇宙中估计有10的60次方种可能的材料,目前已知的只有10的8次方种,具有巨大创新潜力。我们宣布推出NVIDIA
Alchemy,这是用于发现新化合物的特定化学NIM集合。科学家首先定义他们想要的特性,例如强度、导电性、低毒性,甚至颜色。生成模型会提出数千到数100万个具有所需特性的潜在候选者,Alchemy NIM可以通过使用NVIDIA Warp求解其最低能量状态,来对候选化合物进行稳定性排序,使搜索速度提高100倍,将时间从几个月缩短到一天。使用Alchemy工作流程,在进行昂贵的现实世界测试之前,可以识别出最佳候选者。传统的工程分析工作流程,从物理模拟到可视化,可能需要几周、甚至几个月才能完成。大多数物理系统,例如飞机与汽车的分析,都使用一组松散耦合的应用程序,每个应用程序都会生成工程师在每个步骤都需要解读的信息。实时数字孪生使工程师能够动态调整设计参数,例如,你可以更改车身面板形状,实时查看它如何影响流线。隆重推出用于实时数字孪生的Omniverse
Blueprint,Blueprint是参考工作流程,包含NVIDIA加速库、物理AI框架与Omniverse,可在实时环境下进行设计、模拟与可视化。它可以在所有云平台、NVIDIA自有的DGX Cloud上运行。Altair、Cadence、Siemens等公司正在探索如何将Blueprint集成到他们自己的服务与产品中,以加快设计速度。NVIDIA也正在与Rescale合作,将Blueprint集成到他们Physics AI平台中。所有制造的产品,都首先会使用高级物理引擎与求解器进行模拟。计算流体动力学模拟CFD,可能需要数小时甚至数月时间,限制了可能的方案探索数量。借助用于实时物理数字孪生的NVIDIA
Omniverse Blueprint,软件制造商可以将其现有的工具与NVIDIA加速库、物理机器学习与RTX可视化功能集成,将设计迭代时间加快1,200倍。在这里,Luminary Cloud基于Blueprint构建了完全实时的虚拟风洞。首先,Luminary 使用NVIDIA Modulus物理机器学习框架,利用NVIDIA CUDA-X加速的CFD求解器生成的数据,来训练模拟AI模型。该模型理解气流场与各种汽车几何形状之间复杂关系,生成的计算结果速度,比单独使用求解器快几个数量级。使用Omniverse API实时可视化AI输出结果。现在,工程师可以进行几何或场景修改,实时查看效果。Omniverse的数据互操作性,工程师甚至可以引入新的几何形状,模拟将立即适应。过去需要几周甚至几个月才能完成的工作,现在只需几秒钟。全世界的软件开发人员,现在可以为全球的工业设计师与工程师带来前所未有的速度与灵活性,帮助节省大量成本,缩短上市时间。NV副总裁Ian Buck:ANSYS正在将CAE平台与NVIDIA技术相集成。ANSYS Fluent由NVIDIA GPU加速,Nsight由Omniverse可视化功能提供支持,SimAI基于NVIDIA NIM微服务构建。AI不仅会改变模拟方式,还会加快科学实验的速度。先进仪器,如射电望远镜、粒子加速器、X射线光源与聚变反应堆实验,正在产生海量数据。位于澳大利亚的SKAO,将平均每秒产生1TB数据,是目前最先进阵列的1,000倍。在粒子物理学领域,CERN的LHCB探测器每秒产生5TB的数据。在2030年升级后,它每秒产生的数据量可能高达25TB。仪器与研究人员的时间都非常宝贵,必须尽可能高效从所有这些数据中提取有意义的见解。我们正在与SETI研究所与突破聆听计划的研究人员合作,部署全球首个用于快速射电暴FRB检测的AI搜索系统。探测到超过1,000个快速射电暴,但只有15个被追溯到特定的星系。我们在艾伦望远镜阵列中实施了一个实时管道,利用NVIDIA Holoscan处理来自28个天线每秒100 Gbit的数据。该管道可处理的数据量,是目前常用方法的100倍。这是将原始望远镜数据,直接馈送到AI模型进行FRB检测的首次尝试。量子硬件为从根本上彻底改变计算,提供了机会。不幸的是,目前的最佳量子处理器,只能执行数百次运算,然后计算的基本单元,量子比特就会受到噪声影响,这使得将量子硬件扩展到有用的计算设备变得不切实际。今天,我们宣布与Google合作,利用NVIDIA最先进的AI超级计算来解决这一挑战,加快量子硬件开发。为发挥作用,量子计算机需要大量的量子比特,性能要远超目前的水平。AI超级计算是构建更高质量、纠错能力更强的量子比特关键,这些量子比特才能满足这些需求。Google
QuantumAI正在与NVIDIA合作,探索如何加速超导量子比特的数字表示。与侧重理想量子计算机高级操作的电路模拟不同,动力学模拟对描述真实、嘈杂量子硬件的复杂物理进行建模,充分考虑量子处理器内部的量子比特不仅相互作用,还与周围环境相互作用的方式。模拟对理解与减少特定于量子比特的噪声源至关重要。使用NVIDIA硬件与软件,Google QuantumAI研究人员可以加快这些复杂的模拟速度。这增强研究人员理解系统中噪声、探索新设计与提高硬件性能的能力,所有这些对扩展量子处理器都至关重要。我们宣布,动力学模拟现已在我们开源量子开发平台CUDA-Q中可用。意味着,通过CUDA-Q,模拟可以全面捕捉每个量子位的完整动力学,这与常用量子模拟不同。以前需要一周才能完成的这类全面量子位模拟,现在只需几分钟即可运行。借助CUDA-Q,所有量子处理器开发者都可以进行更大规模模拟,探索更可扩展的量子位设计。英伟达不断壮大的量子合作伙伴网络正共同努力,朝着实现实用的大规模量子计算这一目标迈进。科技说:马斯克、贝索斯、拉里·佩奇/谢尔盖·布林、扎克伯格、黄仁勋、Vitalik Buterin、Brian Armstorng、Jack Dorsey、孙正义、华为、马化腾、张小龙、张一鸣、王兴等投资说:巴菲特、芒格、Baillie Giffrod、霍华德·马克斯、彼得·蒂尔、马克·安德森、凯瑟琳·伍德等元宇宙说:Meta/Facebk、苹果、微软、英伟达、迪士尼、腾讯、字节跳动、EpicGames、Roblox、哔哩哔哩/B站等星际说:中国国家航天局、NASA、历年国际宇航大会,SpaceX、Starlink、蓝色起源、维珍银河等消费说:亚马逊、沃尔玛、阿里、京东、拼多多、美团、东方甄选等每个系列聚焦各领域全球顶尖高手、产业领军人物,搜集整理他们的致股东信、公开演讲/交流、媒体采访等一手信息,一起学习经典,汲取思想养分,做时间的朋友,做长期主义者。六合年度报告全库会员,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买智能时代专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买![]()
智能时代专题第二季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买![]()
智能时代专题第一季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买
![]()
六合商业研选付费专题报告,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买元宇宙专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买头号玩家第二季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买头号玩家第一季,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买智能电动汽车专题,欢迎扫描识别下方图中二维码或点击文末“阅读原文”购买【智能时代】现象级游戏《黑神话:悟空》的思考,游戏二元属性,文化与科技
【智能时代】自动驾驶:汽车iPhone时刻,中国三大流派演化形成中
诸神之战:美国科技巨头,从春秋五霸进入战国七雄|GBAT 2023 大湾区智能时代产业峰会
人类未来文明三部曲之二:智能时代专题预售开启,奇点临近,未来已来
九宇资本赵宇杰:智能时代思考,认知思维,存在原生、降维、升维三波认知红利
九宇资本赵宇杰:智能时代思考,以史为鉴,科技浪潮,从互联网到AI
九宇资本赵宇杰:智能时代思考,宇宙视角,从碳基生物,到硅基智能体
人类未来文明三部曲之一:元宇宙专题预售开启,59期45万字
九宇资本赵宇杰:1.5万字头号玩家年度思考集,科技创新,无尽前沿
九宇资本赵宇杰:1.5万字智能电动汽车年度思考集,软件定义,重塑一切
【重磅】前沿周报:拥抱科技,洞见未来,70期合集打包送上
【重磅】六合年度报告全库会员正式上线,5年多研究成果系统性交付
【智能电动汽车专题预售】百年汽车产业加速变革,智能电动汽车时代大幕开启
【头号玩家第一季预售】:科技巨头探索未来,头号玩家梯队式崛起
【头号玩家第二季预售】:科技创新带来范式转换,拓展无尽新边疆
【首份付费报告+年度会员】直播电商14万字深度报告:万亿级GMV风口下,巨头混战与合纵连横
【重磅】科技体育系列报告合集上线,“科技+体育”深度融合,全方位变革体育运动
【重磅】365家明星公司,近600篇报告,六合君4年多研究成果全景呈现
九宇资本赵宇杰:CES见闻录,开个脑洞,超级科技巨头将接管一切
【万字长文】九宇资本赵宇杰:5G开启新周期,进入在线世界的大航海时代|GBAT 2019 大湾区5G峰会
九宇资本赵宇杰:抓住电子烟这一巨大的趋势红利,抓住产业变革中的变与不变
【IPO观察】第一季:中芯国际、寒武纪、思摩尔、泡泡玛特、安克创新等11家深度研报合集
【IPO观察】第二季:理想、小鹏、贝壳、蚂蚁、Snowflake、Palantir等12家公司深度研报合集
【IPO观察】第三季:Coinbase、Roblox、快手、雾芯科技等12家公司深度研报合集
【重磅】年度观察2019系列合集:历时3个多月,超20万字近500页,复盘过去,展望未来,洞悉变与不变
【珍藏版】六合宝典:300家明星公司全景扫描,历时3年,210万字超5,000页,重磅推荐
九宇资本赵宇杰:对智能电动汽车产业的碎片化思考
九宇资本赵宇杰:九宫格分析法,语数外教育培训领域的道与术
【2023回乡见闻录】90、00后小伙伴们万字记录,生活回归正轨,春节年味更浓
【2022回乡见闻录】20位90、00后2万字,4国13地,全方位展现国内外疫情防疫、春节氛围、发展现状差异
【2021回乡见闻录】22位90后2万字,就地过年与返乡过年碰撞,展现真实、立体、变革的中国
【2020回乡见闻录】20位90后2万字,特殊的春节,时代的集体记忆
【重磅】22位“90后”2万字回乡见闻录,讲述他们眼中的中国县城、乡镇、农村
六合君3周岁生日,TOP 60篇经典研报重磅推荐
下午茶,互联网世界的三国杀
5G助推AR开启新产业周期,AR眼镜开启专用AR终端时代
新商业基础设施持续丰富完善,赋能新品牌、新模式、新产品崛起,打造新型多元生活方式
【重磅】中国新经济龙头,赴港赴美上市报告合辑20篇
知识服务+付费+音频,开启内容生产新的产业级机遇,知识经济10年千亿级市场规模可期
从APP Store畅销榜4年更替,看内容付费崛起
新三板破万思考:新三板日交易量10年100倍?
九宇资本赵宇杰:科技改变消费,让生活更美好|2017 GNEC 新经济新消费峰会
九宇资本赵宇杰:创业时代的时间法则,开发用户平行时间|2016 GNEC 新经济新智能峰会
九宇资本赵宇杰:互联网引领新经济,内容创业连接新生态|2016 GNEC 新经济新营销峰会
![]()