Tesla的Cybercab属于Level-5了吗?

汽车   2024-10-17 22:26   广东  

欢迎关注下方公众号阿宝1990,本公众号专注于自动驾驶和智能座舱,每天给你一篇汽车干货,我们始于车,但不止于车。



先说结论,现在讨论Cybercab属于哪个级别的自动驾驶产品……类似这种问题还是太早了。

因为大家耳熟能详的自动驾驶系统的分级本身还是一个更偏重于Target set level的东西,属于定性的名词解释,用于市场化的概念推广(用于在系统制造商之间统一口径,且同时令潜在的消费者能明白自动驾驶的能力梯度大致上是一个什么样的分布)。它本身并不具备定量化的衡量指标,而这个指标性的东西,在实际的系统落地过程中往往又是最重要的,指标缺失则意味着目前没办法给自动驾驶建立技术面向市场的准入体系,也就谈不上谁是谁不是Level-x了。

这个倒不是我挑TeslaElon Musk同志的刺儿,他引以为傲的FSD实际上在系统订购用户的实际体验上并不理想,我个人认为还远达不到讨论高等级自动驾驶级别(至少Level-3及以上)的地步。

举个例子:(来自teslafsdtracker.com,类似那种Tesla技术粉丝自发的组织)

图表 1 来自teslafsdtracker.com

上图统计给出了“FSD激活态下的行驶中,没有人工接管的行驶次数占比,以FSD的版本为维度衡量”。基本的趋势是随着FSD版本的迭代,没有发生人工接管的FSD自动驾驶流程占比越来越高。其中没有发生“紧急人工接管”的自动驾驶完整次数,占比可以稳定在90%以上。但没有发生包括一般性“人工接管”的占比,只有在70%左右。

这里涉及的基本概念是什么是Critical DisEngagement,什么是DisEngagement。前者是指人类驾驶员在激活FSD之后,发生危及行驶安全的事件时,人类进行的紧急干预(以脱离FSD进入自主驾驶状态从而避险为目标);后者应为当人类驾驶员判断 FSD行驶效率过低或者路线错误等发生和人类意图不一致时,所进行的非紧急人工干预。

如果我们不讨论样本的技术是否足够大,单从表面上看,90%以上的NoCriticalDE指标还不错。但如果目标定位是在一辆不安装人工干预机构(方向盘、刹车和油门)的车辆上部署Level-4 or Level-5自动驾驶系统实现,那么这个指标就不成立。很简单的道理,一两次人类可预见并规避的corner case,自动驾驶系统做不到,不用多,一两次的致命事故可能就足够坍塌Tesla的帝国版图了。

所以这个指标要怎么定义?要如何衡量?不是很难想象,它的讨论范围应该是几个9,是99.999%,还是99.9999%的可靠性尺度的问题。现在这个民间的自发统计压根儿不在这个境界。

图表 2 来自teslafsdtracker.com

上图统计给出了“FSD激活台下的行驶中,平均发生紧急干预Critical Disengagement的间隔距离”。

对比图1貌似还不错的指标(90%范围),上图2给出的是类似我们较为熟知的MTBF(平均故障间隔时间)这一类的指标,指在激活FSD行驶的过程中,多长时间发生一次接管行为。黄色线条为在城市道路环境下,我们可以看到,尽管FSD在最新的FSD12.5.x版本下做到了90%的自动驾驶行驶行程中不需要人工进行Critical DE紧急接管,但平均到具体发生Critical DE的间隔距离,也仅仅只有69miles(大概110Km)。

110Km并不是一个很大的距离数值。这意味着如果一天通勤距离为25-30Km,那么每3天就会发生一次不得不执行的Critical DE。如果Cybercab没有部署车内干预机构,那么这些高频次发生的干预就必须在云端得到高可靠性的执行。如果考虑到类似配套建设的极高成本,这种自动驾驶能力作为Level-4 or 5的存在就是极其不确定的。

图表 3 来自teslafsdtracker.com

这里的讨论基础是16218miles的样本基础,大概26000Km的样本基础。实际上这个数据规模远远不够作为自动驾驶系统级别的定级分析,只能做个定性的参考。除此之外在一些独立评测机构的简报中,我们假设专业机构的道路条件选择和FSD的干预时机选择也许会更专业,但实际的结果也不理想,而且可以说更加不理想。

图表 4 来自amcitesting.com/tesla-fsd

AMCI的测试中,平均的人工干预间隔为13miles21Km),还远低于图2中的69miles水平。测试机构如上图给出了测试条件,大家可以自己看。更重要的是从测试工程师的主观评判中,有这样的结论,

FSD能力惊人,但同时也存在问题(有时甚至危险的无能)。它在执行复杂驾驶任务时的自信(通常是能力)让用户误以为它是一台思考机器——它的决策和表现基于对风险(和用户福祉)的复杂评估。但当错误发生时,有时会很突然、很戏剧化、很危险;在这种情况下,司机手不放在方向盘上,不太可能及时干预,从而防止事故发生,甚至可能导致死亡。”

当然,不系统(没有规模数据也就没法儿系统)地谈论FSD和其载体Cybercab的自动驾驶等级能力,实际意义并不大。

使用“人类干预”作为衡量标准的主要问题是缺乏标准化。因为众包状态下,并不是每个司机都以同样的方式衡量干预。有些司机可能会尝试门槛很低的干预,无论在多么小的风险条件下;而其他人可能会冒更大的风险,只在真正面临实际碰撞的时刻进行干预。显然,如果你在干预方面更自由,你的干预率就会更差。如果你在干预方面更保守,你的干预率就会更高。

此外,干预可能会因ODD场景的不同而有很大差异。如果我在一条交通不繁忙的宽阔道路上行驶,干预的可能性要比我在一条行人众多、施工区密集的繁忙城市街道上行驶时小得多。在大雨或大雾中驾驶也往往会比在晴朗的晴天驾驶产生更多的干预。

而且只有在你认为自动驾驶系统可以处理这种情况时才启用FSD,而在会产生干预的情况下不启用系统,也有可能扭曲干预率。例如,如果我一离开家就启用FSD,我可能会在刚离开我的小区,在繁忙的道路上左转时得到干预。但是,如果我在第一部分手动驾驶,并且只在驶出我的分区之前使用FSD,我就可以完全避免干预,这将使我的干预率看起来比我在整个路线上都使用FSD时的实际干预率要好。

因此,考虑到所有这些因素,FSD的干预率可能在每次干预10英里到每次干预1000英里之间,具体取决于如何测量干预和ODD(设计运行场景条件)。这就是为什么希望Tesla能够从整个车队数据中发布一些关于干预的实际数据。这将是一个足够大的样本。如果Tesla披露他们计算干预和ODD的方法,那么我们就可以更好地了解FSD的真实安全性,以及它与无人监督的自动驾驶的接近程度。

小结:

现在的FSD版本,是有FSDsupervised)字样的,这是符合当前交通管理和监管体系的,也就是在全球范围内广泛被接受的Level-2自动驾驶级别。有些先锋地区,可能建立在其较好的道路基础建设条件,和较低水平的交通事故率,是允许Level-3自动驾驶技术上路的,我记得(不确定)德国应该是在部分道路环境下允许的,这是所谓的ODD概念。

Level-45,不论按照SAE还是NHSTA的标准,在高级别自动驾驶级别上,完全不需要人类监管,甚至不需要接管的自动驾驶系统,在法规、测试基础、一致性的认定基础上,据我所知都是没有共识的。更不用说法律、保险等等配套机制上了。

Cybercab不提供车内干预机构,那就势必依赖云端接管机制。否则就会像waymo目前试验商业运行时所遇到的诸多麻烦,而无法进一步扩大商业规模。相比这一点上,国内百度的萝卜快跑显然思考更多,而且国内较为庞大的基础建设对类似这种接管机制的建立也更友好。具体不展开了。总体看,中美之间的Robotaxi体系,呈现出向左走和向右走的态势。

希望最终殊途同归,早日为人类提供安全和完善的自动出行系统服务。


一群志同道合的朋友齐聚知识星


加入《阿宝说车》知识星球,可获得这些模块的相关学习资料(目前有研究报告,线上大咖分享、线下闭门会),包括16大板块,详细清单如下:

阿宝1990
本公众号专注于自动驾驶和智能座舱,每天给你一篇汽车干货,我们始于车,但不止于车。
 最新文章