在武汉路上遛达一天的话,你至少会碰到5至6辆出租车,还会惊讶发现前面驾驶位置是没有人的,那就是百度无人驾驶的“萝卜快跑”出租车。
既然是无人驾驶,自然就省了司机的人工成本,加上推广的力度很大。一位朋友坐了10公里左右,大概支付了5块钱,妥妥的白菜价。
这些加速投放的萝卜,虽然还不至于成群结队,但已经开始威胁着武汉当地司机的饭碗,引起了不少人的抗议。
不过趋势上很难扭转,你现在不抢先搞无人驾驶这一块,等到马斯克那帮人先抢占市场的话,最后整个行业标准也会由别人来定,你最后也会被卷起来,最终还得给人家交钱用他的东西。
换句话说,你不搞,自然也有人搞。最近北京也准备立法来保障无人驾驶,这也是进一步推广的一个里程碑。
但正好这个时候,几天前在武汉这萝卜出事了,虽然仅仅是一桩小事故,但也引起了大家的讨论。
从法律的角度来说,出了事就是智能网联公司承担责任,只要有法可依,问题其实都不大。
但这也让我想到了另一个问题,算法再聪明,道路再智慧,无人驾驶都会面临一个终极问题:伦理
假如我们自己开车,前面突然蹦出一个路人,那么我们的反应可能是急刹、打方向盘。虽然这个本能反应不一定是最优解,但每个驾驶者的反应不会完全相同,带有不确定性。
什么叫最优解?
比如车上有5个乘客,如果一打方向盘躲避行人,有可能会发生更大的交通事故,导致车上5个乘客都有危险。
这种情况下,如果用最低经济损失的角度思考,最优解其实是直接把前面的行人给撞了,保护车上5个乘客。
这个就像经典的电车难题,两条路轨分别绑着1个人和5个人,假如你有能力去选择,你会往哪一条路轨压过去呢?
我是很好奇,算法工程师会怎样来写这个算法,遇到危险的时候,是以保护车上驾驶者安全为第一标准?还是保护车外路人?还是经计算最低损失来作决策?
无论是哪一种算法,这个算法工程师,都背负着拔动路轨开关的那个人,面对的不单止是经济计算,还有伦理压力。
这有点像《流浪地球》里的Moss,他一旦有了自己终级使命“延续人类文明”,那么他可以为了实现这终级目标,消灭全人类。
以上,并不是在反对AI,而这个应该是一个必须面对的问题,也仅仅是拿出来探讨。