吴新宙带队的英伟达智驾:先追平第一梯队,2026年量产L3

汽车   2024-05-15 15:08   上海  

作者 | 德新

编辑 | 王博


吴新宙国内首秀
本文是HiEV #智驾芯片2024展望 系列报道的第六篇。 
2024年智驾量产风起云涌,计算芯片作为核心的基础平台一定程度上决定了潮水的流向。
本系列旨在展望这年的智驾芯片发展,历数市场关键玩家的动向与思考。 
往期内容回顾: 
1. 独家专访 | Mobileye CTO:高阶智驾如何大规模扩张? 
2. 家专访|安霸CEO王奉民:怎么帮助OEM在智驾上和特斯拉竞争
3. 独家专访 | 辉羲智能章健勇:数据闭环定义芯片,帮车厂造中国版FSD
4. 比亚迪的智能化风暴:量产征程5,高阶智驾向20万级挺进 
5. 迈向千T算力时代,2024智驾芯片王者之争 
4月下旬,在北京车展开幕前的一天,NVIDIA全球副总裁、汽车业务负责人吴新宙现身NVIDIA位于北京国贸商圈41层的办公室。
在这之前,他已经在国内待了一个多月。同新宙一起会见媒体进行沟通的,还有英伟达负责数据中心业务的全球副总裁Norm Marks以及英伟达全球副总裁、中国区汽车业务负责人刘通。
彼时是新宙到任NVIDIA半年多以后,第一次在国内公开露面。
今年时值NVIDIA下一代车载中央计算平台DRIVE Thor量产前的关键一年。中国是全球市场智能驾驶应用最为活跃的市场,DRIVE Thor平台不少的先锋客户都来自这里。
与此同时,在智能驾驶的软硬件平台之外,AI应用正在向汽车行业全面渗透,包括开发、设计、营销、生产等在内的全流程。
NVIDIA凭借「DRIVE计算平台+数据中心 + Omniverse软件栈」的组合,希望在日新月异的汽车市场中拿下更大的蛋糕。
吴新宙在这次会议上再次重申了「AI定义汽车」的观点,尤其在智能驾驶领域,端到端的架构正在重新定义第三代的智驾技术栈。
在座舱领域,NVIDIA全球副总裁Norm Marks提到今年2月他来国内试驾了理想,理想在座舱大模型MindGPT上的进展和未来构想令人吃惊。

NVIDIA汽车业务的雄心也正从车上,渗透到造车的全流程。
前不久,NVIDIA基于DRIVE Thor和Omniverse与全球最大的新能源车企比亚迪达成合作,绝大部分人的关注点在于比亚迪发力智驾。
与之相比,Omniverse的合作乍看没有那么性感。但NVIDIA希望从数据中心、智能工厂、机器人等全领域帮助这家庞大的车企降本增效。毕竟仅仅在生产环节,比亚迪每年就雇佣了超过30万人。

端到端,定义第三代智驾软件栈
接下来,AI定义汽车肯定是一个很大的趋势」这个观点在新宙最近几个月的公开露面中不断被重复提到。「生成式AI,会把自动驾驶的天花板进一步提升。」
新宙将自动驾驶的算法分为三个阶段:
  • 第一代的自动驾驶系统,完全基于规则,有着大量人工介入的功能开发,通过很多算法完成让车自动驾驶开的动作;

  • 第二代就是现在市场上看到的,已经开始用大量的AI取代原有的功能,现在不管是预测还是规划,都在用模型去做;

  • 第三代会达到更大的突破,变成端到端大模型的方式。

曾经在计算机视觉领域也出现过这样三段式发展的历程。新宙认为这样的趋势是不可避免的,「这样的未来,我觉得会在下来的5年内发生」。
新宙认为,未来能把端到端模型做得好的企业,首先也需要一个非常好的第二代或者第一代的自动驾驶堆栈,端到端会与现有的技术栈协同发展。
「端到端相当于一个博士生、博士后,但它成长中需要小学老师、中学老师去教它。端到端在拟人化方面有很强的优势,但需要一些原来的模型保持它的安全性,一个guardrail。」

英伟达智驾方案三部曲
对NVIDIA来说,汽车是AI的一类垂直应用。
「我们希望通过AI整体性能的成长,把好的应用带给汽车场景。
(在汽车上)我们更多的身份是一个生态赋能者,欢迎客户用一部分的东西,也欢迎端到端的合作。」新宙这里所指的端到端,是指全栈的软硬件方案。
从核心业务来说,NVIDIA在汽车上提供「数据中心 + 系统级芯片 + 汽车安全平台 + 全栈解决方案」的产品组合。
其中,全栈解决方案也就是NVIDIA Autonomous Driving System,是新宙当前工作的重中之重。
吴新宙亲自率领的智驾解决方案开发,将分为三个阶段:
「第一步,希望我们的软件尽快在现有的L2和L2+系统上,达到市场领先水平或者第一梯队水平;
第二步是希望在L2++的领域有些新的突破,真正做到行业领先的水平。
其中,我们还是希望未来的软件栈是端到端的可训练,把上游的模块完全打通,不光是模型之间打通,还可以做到端到端训练。我们整体上完全用生成式大模型的布局已经开始,相信今年晚些时间就可以有DEMO展示给大家,通过端到端模型的方式完成。
只是把上游模型和下游模型打通,但还不是真正意义上的基于生成式AI的模式,我们也会把VLM、LLM运用到自动驾驶,真的非常高兴每天都可以看到进展,期待真正把NVIDIA的天花板进一步提高。
第三步就是现在已经开始的,希望能够在2026年量产的L3,完全把人从系统中拿掉,这才是自动驾驶真正的价值所在。」
「我们的核心是让大家在车里不是开车,开车不是刚需,从A点到B点是刚需。」

DRIVE Thor,下一代千T级算力芯片



除了智驾软件方案的进展,本届车展上,NVIDIA下一代智驾计算平台DRIVE Thor也有相当高的关注。
来自供应链的信息显示,本次车展之后,各大主机厂对DRIVE Thor的兴趣明显大幅增加
继极氪、理想、比亚迪之后,本届车展上,极越、广汽Hyper等多家车企都陆续官宣下一代计算平台将使用DRIVE Thor。
官方预计,2025年开始有将有第一代的SOP,车企也会比较快拿到样片。
「从自动驾驶的出租车到无人配送,DRIVE Thor的大家庭还在快速往前增长,这也是一个不可阻挡的趋势。」
吴新宙认为,DRIVE Thor不仅代表了最高算力的下一代芯片,也代表着最高安全等级的下一代芯片,是能够对生成式AI、LLM给予最好支持的芯片,推动AI定义汽车更好往前发展的芯片。
NVIDIA汽车业务中国区负责人刘通介绍,DRIVE Thor的生态,目前大致可以分为3类:
  • 第一种是国内车企的全自研型,无论是域控制器还是算法开发都是自研,包括理想、小鹏、极氪这一类;

  • 第二种是生态合作伙伴,通常是Tier 1;

  • 第三种是软件供应商以及智能座舱软件开发商。


Ominiverse,
NVIDIA的野心不止智驾
相比于智驾在话题性上的高热度,Omniverse更多扮演的是站在车企背后的产品。
NVIDIA认为,从汽车的概念设计、工厂数字孪生系统,到营销销售,到自动驾驶,Omniverse都会有巨大的影响。
NVIDIA正在和几家国内国际车厂协同进行工厂数字孪生的探索,核心方法是通过数字孪生的模式对工厂进行非常详细的布局和优化,从而提高工厂的运营效率,并且也可以用来做机器人的训练。
「机器人的训练是一个非常大的话题。工厂的机器人相对简单,因为场景比较限定,所以通过数字孪生可以很好地产生真值系统。从我的角度来讲,如何能够高效产生真值是比自动驾驶难得多的话题。
通过仿真和Omniverse,NVIDIA希望在机器人时代来临时发挥自己的作用。」吴新宙说。
附录,以下是本次沟通会上,新宙与媒体的QA问答,HiEV作了不改变原意的删减:
Q:端到端自动驾驶技术的未来发展会是怎样的?
吴新宙:端到端自动驾驶是三步曲的最终一步,我相信一定会到来。
大家不要字面上理解就是从像素到动作,可能会有一些别的东西配合。比如在控制这一环,后面可能还会有优化帮助把控制做得更好,因为控制是数学问题,但是这个问题比较技术性。
端到端的模型上线之前一定会有一个“护栏”,因为需要不停地优化和成长,要是一开始就上线端到端的模型是非常困难的。
相信能够把端到端模型做好的企业一定也需要非常好的第二代甚至第一代的自动驾驶堆栈,就像端到端的模型像是未来可以成为博士生甚至博士后的学生,但在成长的过程中需要小学老师、初中老师去带去教,能够有时间去成长,变得更加强大。
接下来的几年里,大家可以看到这样一个趋势,端到端的模型和原有模型的相辅相成,某些情况下比如比较难的路口处理可以显示出更加拟人化的东西,通过原有的模型和方法保证安全性,这些是把端到端模型真正大规模部署,变成主流的一个过程。
Q:如何应对黑盒问题和算力上的挑战?
吴新宙:怎么解决黑盒化的问题,可以说这是业界比较关心的。
主要有几个维度:
刚才我已经讲到通过原有的第一代第二代算法栈,可以保证端到端模型的安全性,也可以不停地判断端到端模型决定的合理性,把双方有差异的地方作为输入。其实有点像大语言模型训练的反馈,或者是上一代模型的循环,能够让结果更加合理化,这些和Human In The Loop大语言模型是非常一致的。
另一个很重要的点就是未来的大模型、端到端模型有周边的输出点可以观测,比如可以观测输出的结果,训练的时候也是部分训练等于是在黑盒开启几扇窗,看到信号是怎样的模式,通过这样的方式在最后运行的时候不需要运行仿真,那些窗其实就是输出口,最后正式运行的时候不一定要运行那些东西,但如果需要观测为什么、了解怎么想的话可以通过那个窗口看一下。
Q:NVIDIA如何通过产品和技术满足汽车行业对AI芯片的高要求?
吴新宙:我们核心的使命还是生态赋能者。
NVIDIA的一个巨大优势就是端到端,而且是整体AI赋能,汽车只是我们的一个垂直领域。我们当然会听车厂的需求,同时也需要通过AI在整个水平领域把好的东西带到汽车的应用场景。我们作为生态赋能者希望引领生态变化,新的技术产生,以及AI在汽车垂直领域的应用。
我们在数据中心、训练工具都有巨大的投入,不管是在汽车还是在别的领域都是一样,我们也有SoC和安全平台,从底层软件加上芯片,所有的每一层都有引入非常强的安全概念,我们还有端到端全栈软件的开发。
以上四个方面构成我们汽车生态系统,这也是NVIDIA的布局,欢迎以各种各样的方式采用我们的芯片。
我们的训练工具和云端Omniverse、汽车生态系统都会很方便地和生态合作方合作,通过这种方式去更快地促进AI这样的人类社会巨大赋能者在汽车领域的应用。
Q:在车企和科技公司纷纷自研智能驾驶芯片的背景下,NVIDIA将如何保持差异化的优势?
吴新宙:这也是一个好问题。
其实NVIDIA的优势也非常明显,我们是整个AI生态的赋能者,不是专注于做车。可以说每个AI的突破,我们都希望在NVIDIA的生态中产生。我们现有的芯片更多的是基于通用GPU,但我们也会不断调整,使我们的生态中孕育出来的产品能够有越来越好的支撑。这些已经是自动闭环的系统,我们在把AI在我们系统中不停地往前迭代,可以对我们的整体硬件架构进行优化,再把这些成果变成车端的芯片。
我觉得AI时代就是这样快速迭代、快速变化的时代,NVIDIA的芯片一定是能够最高效地把AI最前端的东西运用到车端的芯片,这些是我们比较大的优势。
另外我还要再强调安全,安全不是一蹴而就的东西,需要大量的投入、大量的经验,特别是端到端能够把安全做好,包括芯片的模块和上面操作系统的模块、云端所有训练工具的安全性,真正产生高效安全的网络,可以把软件部署到车端芯片。
我们对安全的执着和巨大的投入在未来一个时间段也是NVIDIA的巨大优势,希望通过这些持续投入更好地赋能汽车和机器人行业,赋能大家在我们的平台上用比较少的投入做出安全的东西,这是我们的期望。




HiEV大蒜粒车研所
让一部分人更懂智能汽车。
 最新文章