随着自动驾驶技术的发展,自动驾驶汽车不可避免地遭遇行动责任、行动决断、行动后果三方面的“路上道德”难题。基于人工智能“感知-决策-执行”一体化即时响应,自动驾驶遵循“‘视见’即行动”的行动逻辑。它内含三方面的伦理扩展:①视觉算法从“人工智能行动者”向“人工道德行动者”的扩展;②从“技术能动性”向“道德能动性”的扩展;③从“技术规范性”向“道德规范性”的扩展。三种伦理扩展分别对应于让自动驾驶行动“见责任”“见决断”“见后果”。基于“视见”的行动伦理方案,不是一般意义上的“路上道德”,而是走在探问“技术调节如何转换出‘道德调节’”的路上了。为此,还要形成一个“远见”:在“警惕人工智能”的同时,做好拥抱自动驾驶汽车广泛进入人类生活的准备。自动驾驶之“视见”,唯有在这一“存在”的道路上,才能让“责任”回归于自动驾驶行动自身。
关键词:自动驾驶、人工智能、“视见”、“人工道德行动者”
汽车自1886年问世以来,历经了近一个半世纪的发展,如今即将进入“自动驾驶”时代。根据通行的自动驾驶汽车分级标准,目前我国有条件自动驾驶汽车(L3)已获准开展上路通行试点,完全自动驾驶汽车(L5)尽管尚未面世,但未来可期。自动驾驶汽车作为“多元高端技术集置”的交通工具和个人出行产品,既是智能化技术创新的“集结地”和“制高点”,又是引领市场规模方向和全球资本流动的“商家必争之地”。因此,自动驾驶已经是一个展现于人们日常生活中的全方位交通伦理议题。各国各地区从立法、车辆管理和伦理规制等方面提出了自动驾驶技术准入后的标准化和规范化问题。自动驾驶技术市场化和产业化,对重构人类在交通活动中的行动体系或行为正当性而言是一个关键变量。尤其是当自动驾驶汽车成为L3以上特别是L5的完全自主驾驶主体后,我们将面对自动驾驶这样的“行动者”(agent)带来的“行动伦理”或“驾驶道德”问题。
假如自动驾驶汽车面对复杂道路交通场景,而人类驾驶员又不得不面对不可预测的人工智能算法黑箱和不可预知的机器学习模型,驾驶员作为行动者(包括完全自动条件下或高度自动条件下的自动驾驶在内的诸驾驶员)如何进行道德决策?如果行动主体从人类扩展到智能行动者是智能时代的表征,那么自动驾驶主体就不能只是人类驾驶员,而应是包含智能行动者在内的复合主体。自动驾驶在行动伦理上不可避免地遭遇行动责任、行动决断、行动后果三方面的困境:①行动责任困境是指由责任鸿沟引发的“行动归责困境”,涉及自动驾驶事故的责任人是人类驾驶员还是人工智能行动者、谁是“路上”的行动责任主体等问题。②行动决断困境是指由电车难题引发的“道德决断的两难困境”。瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)这样表述该困境:“无人驾驶系统使机器可能处在瞬间作出生死决断的位置上,随着轨道网络复杂性的增加,类似电车难题的基本的两难困境出现的可能性增加了。比如说,对于一个失控列车自动系统,应该计算往哪里转向呢?”③行动后果困境是指由不可预知的道德风险带来的“结果测算困境”,即“科林格里奇困境”。科林格里奇在《技术的社会控制》一书中形成了对这一困境的经典表述。其内容可作如下概述:一项技术的社会后果不能在技术生命初期被准确预见,但当不希望的后果被发现时,它往往已成为整个经济和社会结构中难以抽离的一部分;当容易改变时,人们无法预见改变的需求,而当改变的需求变得明显时,改变变得昂贵、困难和耗时。
毫无疑问,自动驾驶作为“行动”不同于“关上门”“倒杯水”这样简单的“行为”。行动者的“视见”或“视而不见”,是行动伦理解题的关键所在。“视见”蕴含三个层面的“见”:一是“见责任”;二是“见决断”;三是“见后果”。无论在协助模式下还是在自主模式下,自动驾驶面对的伦理困境都指向由“计算机视觉算法”所指引的行动伦理的三种“视见”。因此,对于一种围绕自动驾驶伦理所展开的“路上的道德”,我们要凭借“视觉算法”的道德敏感性思考如下问题:什么是自动驾驶的“视见”?“视觉算法”能否在自动驾驶系统感知功能中做出人类想要得到的正确的道德决策?当其“视而不见”时,“路上”以及围绕“路上”展开的道德决策又将如何进行?
目前,自动驾驶系统通常包括感知、决策、执行三个层级,分别对应于“环境感知”系统、“定位导航-路线规划”系统、“运动控制-辅助驾驶”系统三个模块。当这三个层级的技术协调达到完全自主智能级别时,自动驾驶就从部分驾驶辅助级别(L1)不断迭代升级到完全自动驾驶级别(L5)。在这三个系统模块中,环境感知系统是自动驾驶实现的基础,它构成了自动驾驶的“视见”功能。它通过视觉算法(基于多传感器数据和高精度地图信息)精确感知周围环境。“感知”“定位”系统实时提供车辆在运行环境中的精确位置信息,为车辆的“行驶导航”“路线规划”提供对自主决策至为关键的数据和信息支持。因此,“感知”“定位”系统获取的“视见”,通过“视觉算法”实际地贯穿于“路线规划”“运动控制”“辅助驾驶”的决策层级和执行层级。从逻辑上看,自动驾驶的行为决策模块是在综合实时道路信息后做出驾驶决定,但是,实际的自动驾驶行动是一个非常复杂精确的工程学模型,很难用单一数学模型建构。它要达成的行动效应,是一种基于人工智能“超强算力”的“感知-决策-执行”一体化即时响应。自动驾驶行动所要求的这种一体化即时响应的难度非常高——它遵循“‘视见’即行动”的行动逻辑。
如果仔细分析自动驾驶的“视见”逻辑,就会进一步发现,这一行动逻辑作为自动驾驶的行动伦理框架,内含三方面的伦理扩展:①视觉算法从“人工智能行动者”向“人工道德行动者”(AMAs)的扩展;②从“技术能动性”向“道德能动性”的扩展;③从“技术规范性后果”向“道德规范性后果”的扩展。这三方面的扩展提供了回答“什么是自动驾驶的‘视见’”及相关问题的一个伦理学方案。
1. 让自动驾驶“见责任”:视觉算法从“人工智能行动者”向“人工道德行动者”扩展
如果说自动驾驶的“视见”是一个融合了“软件”和“硬件”并对其不断协调的智能化功能体系,那么,作为自动驾驶技术之感知层级的“软件”——计算机视觉(computer vision)算法,便是“视见”的“灵魂之眼”。如果单单从技术层面看的话,正如前面所说,自动驾驶的“视见”无疑是通过模拟生物视觉(特别是人类视觉)让计算机代替人类驾驶员完成目标识别、分类并达成针对图像或视频信息的场景理解。但是,如果扩展到伦理层面,人们就会发现,自动驾驶的“视见”不是一个单一的孤立的“看”的表象行为,而是围绕主体或行动者展开的具备人类实践特性的自主行动。自动驾驶“能否‘视见’”“如何‘视见’”“‘视见’什么”等问题是讨论自动驾驶汽车道德决策问题的出发点。问题的关键在于,由于这是一个由自动驾驶技术展现于当下的由技术到伦理的扩展问题,“视”的人类含义与“行动者”的技术属性便发生了紧密的关联。我们知道,“行动者”通常论及人类行动或个体人的行动。对于在世界之中的作为“这一个”的“人”的“视见”行动,海德格尔曾用“寻视揭示着”这一短语描述。他写道:“这话意味着:已经领会的‘世界’现在得到了解释。……这个视的看却一向有所领会,有所解释。这个看包含着指引关联‘为了作什么’的明确性。”因此,“视见”是对世界有所领会、有所解释的揭示活动和展开活动,它对应着敞亮、展开、揭示而非仅仅是感性知觉。那么,当我们把“视见”这一具有“世界性”“生存性”的行动赋予自动驾驶时,自动驾驶的“视见”便从“道路场景”转换到了“责任场景”。自动驾驶“能否视见”“如何视见”“视见什么”的问题,是在自动驾驶车辆为“拟主体”或“行动者”的技术条件下如何让自动驾驶“见责任”的问题。
实际上,让自动驾驶“见责任”,取决于“计算机视觉算法”能否生成具有自动驾驶功能的“人工道德行动者”。如果可以预设“计算机视觉算法”对“路上道德情景”已经先行有所定义、有所领会、有所解释,并通过机器学习在诸如“礼让行人”“学校路段减速”“避让非机动车”“与前车保持适当车距(如果发现车距过近则必须采取减速甚至紧急制动措施)”等常规驾驶行为可能发生的场景中都可依“责任行为”的定义而行动,那么我们就可以说,自动驾驶在“见责任”的维度上初步生成了“人工道德行动者”。目前自动驾驶汽车主要通过三类道德情景识别构建“路上道德”的自主责任规范。这三类道德情景的识别分别是基于图像的信息识别、基于高精地图的定位识别和基于车联网的V2X识别。我们以“避让行人”为例,可以简略勾画自动驾驶在道德情景识别过程中的“责任流程”:①自主侦测与即时环境感知——通过配备的高精度传感器持续即时地探测感知周围世界,捕捉车辆周围各类实物的位置、速度、运动方向等信息;②目标识别与分类——计算机视觉算法响应道路交通大数据和即时感知到的道路情景信息,对之进行上传、分析处理,以识别并分类不同目标,在场景中识别行人,并提取行人相关数据;③自主决策与规划——在识别行人后,自动驾驶汽车基于算法进行决策规划,涉及对车速、路况、行人位置和移动速度等因素的综合考虑,系统在此基础上根据它所领会的安全规则策略选择最优避让路线和操作方式;④控制执行——自动驾驶汽车通过控制执行系统执行避让操作,包括调整车速、转向或制动等控制执行,以确保安全地避让行人。
上述责任流程是常规事态下的一个简化版本,属于操作性道德层面的“见责任”。尽管如此,它也初步见证了自动驾驶汽车作为“人工道德行动者”是以计算机视觉算法的“视见”为根据的,可以将它简称为“自动驾驶AMAs”。如果基于“自主性”和“敏感性”两个要素对“自动驾驶AMAs”进行分级,那么可以得到“责任流程”的三个层阶:第一层阶是操作性道德,属于“初阶”的规范层级,在这个级别上的自动驾驶的“视见”基于“低自主性-低道德敏感性”,它的责任核心在于充当“合作驾驶员”;第二层阶是功能性道德,属于“中阶”的规范层级,在这个级别上的自动驾驶的“视见”基于“高自主性-低道德敏感性”,它的责任核心在于充当“安全驾驶员”;第三层阶是完全智能行动者道德,属于“高阶”的规范层级,这个级别上的自动驾驶的“视见”,基于“高自主性-高道德敏感性”,它的责任核心在于充当“自主驾驶员”。
不难看出,自动驾驶汽车作为“人工道德行动者”的负责任形象,主要是靠“合作驾驶员”和“安全驾驶员”来树立的。虽然这种合作越来越强化了对周围世界晦暗不明的事物的祛除,但是车辆周遭潜伏的危险并没有随着它的“视见”而消失。其中,最大的危险来自它“视而不见”的非常态情况。而自动驾驶行动者作为“人工道德行动者”从操作性道德向功能性道德的演进,是以常态情况下的路上道德情景为参照的。实际情况表明,目前自动驾驶汽车的道德行动已经迈过了第一层阶,处于第二层阶的开发测试阶段。人工道德行动者在功能性道德建构方面以驾驶过程的“安全责任”为主导,但在非常态情况(例如乘客身体不适)下的协调仍旧依赖人类驾驶员的人工调整。因此,自动驾驶的自主性,距离“通用人工智能”级别的完全自主还很遥远。从这个意义上看,有能力自主处理特殊伦理情景下责任问题的AMAs“自主驾驶员”还处于一种理想性的规范层阶。
2. 让自动驾驶“见决断”:从技术能动性向道德能动性的扩展
自动驾驶的“视见”主要通过计算机视觉算法和机器学习融合路径实现。它应当嵌入“道德算法”吗?它是否可以通过机器学习提高能动性?从能动性两个维度即“技术能动性”和“道德能动性”的接合转换看,答案无疑是肯定的。如果说“让自动驾驶‘见责任’”的常规形态遵循了从“合作驾驶员”到“安全驾驶员”最后到“自主驾驶员”的责任增强流程,那么“让自动驾驶‘见决断’”的常规形态则是通过提高“人工道德行动者”的自主性和敏感性来完善其道德决策水准。通常有三种进路:(1)将道德算法嵌入“计算机视觉算法”(包括机器学习算法)的“自上而下”进路。这是解决自动驾驶视觉算法对“路上道德情景”先行有所定义、有所领会、有所解释的道德能动性问题。(2)通过机器学习和强化学习的“自下而上”进路。生成式人工智能不断改善“计算机视觉算法”,让它逐步“瞄准”并“对齐”人类价值观和人类道德观念,在驾驶行动或者在与用户互动时展现越来越高级的道德水平,以完善其决策时的道德敏感性。(3)“混合进路”。通过混合运用(循环反复)前两种路径,进一步完善道德算法并增强机器学习的品质,以提高其决策的道德敏感性。
让自动驾驶“见决断”的AMAs“混合进路”,是目前解决常态自动驾驶道德能动性的主导进路。它一方面“数字化”了人类通行的成熟道德理论原则,另一方面通过大数据学习完善AMAs的道德体系,因此,它能兼顾道德指令的原则性和大数据案例学习的灵活性。在自动驾驶汽车研发阶段,算法专家基于交通法规和道德原则,为自动驾驶视觉算法附设一套包括道德原则在内的基本决策规则,以确立“‘视见’即行动”的法则框架,并由此规范汽车,使汽车在常态下遵守交通规则、避免伤害行人和其他车辆等。而在实际的自动驾驶测试中,自动驾驶汽车可能会遇到复杂但仍属常态的道德决策问题,如在遭遇“突然出现的行人”或障碍物时如何决策等。应对这种情况,“混合进路”的AMAs采用机器学习优化算法,让机器通过大数据强化训练和模拟解决复杂情境中的道德决策问题。上述进路,包括“混合进路”在内,本质上都属于与驾驶行为直接相关的“一阶”的道德算法和机器学习,它们只考虑“常态自动驾驶”下的“视见决断”,不涉及“非常态自动驾驶”下应对道德困境的道德决断问题。
在此,我们有必要强调指出,让自动驾驶“见决断”,不是要将自动驾驶汽车置于诸如“电车难题”之类的“极端自动驾驶”条件下,让其破解甚至人类都无法破解的两难道德困境,而是致力于从道德敏感性构建AMAs在自动驾驶功能上的“两阶道德决策”能力。这里所说的“两阶道德决策”中的“第一阶”,是指在“常态自动驾驶”条件下操作性和功能性的行动决断,它以“驾驶专家”为首要原则(涉及礼让行人、在特定路段减速行驶、避让紧急救援车辆等),而非以“道德专家”为首要原则。“第二阶”道德决策是指在“非常态自动驾驶”条件下的一种自主行动决断。比如,车辆必须避让行人而可能撞向路边防护栏,进而可能导致车内乘客受伤——当此危情发生,道德算法要综合测算如何避免车内乘客和路边行人受伤,同时,在此前提下测算车辆撞击带来的财产损失等。从逻辑上看,自动驾驶在“第二阶”道德决策上的决断,是以“驾驶专家+”为首要原则。因为“驾驶专家”以保障自动驾驶的操作性和安全性为主。如果AMAs不能妥善处理涉及人身和财产安全在内的驾驶事项,那么我们大概率不能称之为具备卓越驾驶能力的系统;但是,仅停留于驾驶专家之“见”,对于此复杂性事项之决断而言还是远远不够的。“驾驶专家+”原则要求自动驾驶在“第二阶”道德决策上匹配“第二阶道德算法”和相应的学习,以便自动驾驶AMAs能够兼容协调更多的“视见”,如“医学专家”“伦理学家”“法学家”“心理学家”等之“见”。这会使得自动驾驶AMAs的“视见”能摆脱单一“专家隧道困境”,具备不同的多元思维方式,当其面对“非常自动驾驶”事项时,就能够自主提供创新性的解决方案。道德决策从来都不是一个机械化的过程,随着路上情境的千变万化,伦理需要“选择扩张,结果多样化”;AMAs 需要具备“能够评估不同选择和考虑不同的估值观点的能力”。
3. 让自动驾驶“见后果”:技术规范性向道德规范性的拓展
自动驾驶的“视见”不是茫然无措的“看”,它总是已经有所预设。那么,对自动驾驶“‘视见’什么”这一问题在形式上的回答必定是须有所“行动”之“事”——它指向最优方案的行为决断。因此,“‘视见’即行动”这一命题,已事先内含了判定“最优方案”的标准问题。有两种相互抵触的标准:“义务论模式”和“功利论模式”。“义务论模式”强调规则、职责的重要性,认为即使遵守规则、履行职责可能会带来某些不利后果,“规则行为”或“职责行动”在某种意义上仍是“最优方案”。然而,“义务论模式”过于僵化刻板。自动驾驶的“视见”显然不能以纯粹“义务论模式”应对复杂多变的道路环境。“功利论模式”适合计算结果,强调结果、效用的重要性,认为在某些特定情景下“结果”可以为“手段”的正当性辩护。也就是说,为了获得一个值得的“好结果”,就不能把不遵守规则的行为从“最优方案”选项中排除。然而,“功利论模式”又过于灵活,它会以牺牲规则的优先性为代价,不能令人满意。对于自动驾驶的道德算法来说,“闯红灯”作为违规行为,即使可能拯救人的生命,也不应获得道德上的赞同或允许。显然,上述两种相互抵触的“最优方案”在逻辑上使得自动驾驶会遭遇道德算法的多样性和非中心化。这也就是说,可以存在多种形态或多语义价值确定的道德算法,它们像生物多样性一样,在自动驾驶环境下“具身于”特定的背景关系。
让自动驾驶“见后果”并不只是坚持一种逻辑一贯的“义务论模式”或者“功利论模式”。这里所说的“见后果”,是在人与自动驾驶汽车的关联中形成的一种作为“复合行动者”的“效用”和“后果”。自动驾驶汽车作为AMAs是否具有意向性?这个诘问是从“通用人工智能是不是一个伪命题”的诘难演化而来的。它的潜台词是说,如果自动驾驶AMAs不具有同人类行动者一样的“意向性”,那么就不能讨论自动驾驶汽车作为人工智能产品是否“知善恶”“辨是非”“守规则”“讲道德”之类的问题。因为,从传统意义的规范性维度看,人们通常所说的“在道德上分析一个行动者行动的后果”这件事,必须以人的意向性(基于自由意志)为前提——“见后果”的语义所指向的内涵,是为人的意识所“意向”“意会”的后果,或者是为人的意识所“不意向”“不意会”的后果。说到这里,不难看到,如果说“让自动驾驶‘见后果’”是自动驾驶行动必须解决的一个规范性问题,那么它必然要以一个伦理学的扩展为前提:由于AMAs驾驶员的加入,自动驾驶主体不再只是人,它也应该包括自动驾驶AMAs,那么,我们在伦理上就应该考虑AMAs如何调节人的意向性行为的问题。维贝克主张把这种“技术调节”归于“道德调节”。这样一来,“道德调节”的概念就很好地规避了将道德视为技术人工物固有属性的问题,也绕开了人工智能行动者的“意向性”难题。
我们借助维贝克的“技术调节”理论视角看问题,不难发现:让自动驾驶“见后果”的问题是可以着眼于技术规范性向道德规范性的拓展给出某种合理的回应的。当自动驾驶汽车被投入使用时,道德规范性并非来自“人”的自由意志,也非来自技术的“集置”效应和“促逼”功能,道德能动性实际上分散在人与非人(例如自动驾驶汽车)之中。“道德行动者”实际上是由“人与技术的关联网络”构成的一种“复合行动者”。从这个意义上看,道德决策与行动的“效用”和“后果”是人与技术关联的产物和结果。在此维度上,自动驾驶的“‘视见’即行动”命题,具体而微地体现为“伦理即服务”这一人工智能伦理实践原则的应用。具体说来,这条原则在自动驾驶行动中的应用,体现为“见后果”服务的总原则、“第零级伦理原则”和三个分级别的伦理原则。
(1)“人类驾驶员的隐入机制”。自动驾驶汽车的“技术调节”效用以在驾驶服务中“抽离”人类驾驶员并将其隐入背景关系为目的。“人-车”关系转变成“产品-用户”关系,“人类驾驶员”成为隐入“人-车”关系网络(背景关系)中的抽象的“第三方”,成为不可见的多主体(“概念设计师”“算法专家”“生产厂家”“道路管理系统”“卫星定位导航”“交通警察”“保险公司”等)模型。例如,在概念的自动驾驶汽车中没有预留用户用身体感官操纵车辆的机械设备(如方向盘、制动器等),人们在汽车中并不与交通活动产生关系,汽车成为人们活动的环境而不是活动本身。由此,从行动者的总体行动形态而言,自动驾驶“见后果”的行动伦理是要完成一种“路上道德”的形态转变,它构成“见后果”服务的总原则,即把“道德规范性问题”转变为用户提供高水平优质服务的“技术调节”问题。
(2)“生死档案”。自动驾驶汽车的“技术调节”必须设置“生死档案”。这是居于最优先地位的伦理,我们称之为“第零级伦理原则”。它在“价值对齐”上的表述就是“超级爱对齐”。因为,“第零级伦理原则”要求自动驾驶AMAs爱人类的生命超过爱自己,它的具体内容就是具体化“阿西莫夫机器人三定律”,目的就是提供“不伤害”(人类)的优等级的服务。具体说来,就是通过大数据或机器学习建立一个“全域性”“高分享”的“生死档案”,以供生成式人工智能进行深度机器学习。通过这样一种“技术调节”,让自动驾驶汽车学会避免如下“生死攸关”的事态:①避免遭遇“电车难题”;②规避任何伤害人或人类的行动指令的开启;③不开放进入危险路段的许可;④避免为不法分子或黑客非法使用;⑤避开危险天气或灾难性场域;⑥拒绝遵循任何性质的战争指令和不法行为指令;等等。“生死档案”是一种对自动驾驶汽车“说不”的预备性伦理条款。
(3)“紧急救援通道”。自动驾驶汽车“技术调节”的“第一级伦理原则”,是提供“紧急救援通道”服务。如同高速公路上的“紧急救援通道”一样,它的功能是在预判交通事故可能发生时或在交通事故发生后提供高效快捷的救援服务。自动驾驶汽车分为“人机合作模式”和“无人驾驶模式”,这两种模式都需要对路况进行实时智能监控。一旦出现上述两种驾驶模式无法解决的紧急情况,例如,当道路识别系统过于灵敏或出现故障而将路旁汽车广告牌识别为“前车”并采取紧急制动时,“紧急救援通道”服务就必须即时打开。“紧急救援通道”一旦开启,自动驾驶汽车平台就可以通过快捷操作,必要时通过后台人工操控,让困境中的自动驾驶汽车得到救援。
(4)“时钟设置”。自动驾驶汽车“技术调节”的“第二级伦理原则”是提供“时钟设置”服务。“时钟设置”的重点是确保响应的即时性、准确性、有序化和队列参数的合理化。因此,“时钟设置”如同人类日常使用的各类“时钟物体”,它能确保处于联网系统中的每一辆自动驾驶汽车处于在线状态。换言之,“时钟设置”是通过“技术调节”让自动驾驶汽车模仿人类进入一种“在世界之中存在”的“操心”的状态。即使一辆自动驾驶汽车处于加油时间、充电时间、保养维修时间、模式升级时间、等待响应时间等,它也处于一种因时钟调节而“在世”的状态,除非它被“时钟”列入报废清单而不能提供服务。“时钟设置”提供一种“时间性”的“技术调节”,因此它是“一切‘视见’能够进入‘服务’”而“一切‘服务’得以成为‘行动’”(例如未来的共享自动驾驶汽车的预约服务系统就是如此)的关键性“技术调节”,其伦理重要性是不言而喻的。
(5)“具体服务清单”。自动驾驶汽车“技术调节”的“第三级伦理原则”是提供“具体服务清单”。这是“伦理即服务”的具体内容。它既有属于驾驶功能专家级别的服务类别,也有一切人工智能行动者的智能设置所共有的服务类别。这些“服务清单”可能包括以下各项:①预约;②隐私保护;③反算法歧视;④可信医护及心理调节系统;⑤提示工程师;⑥驾驶教练员;⑦高级私人助理;⑧驾乘陪伴者;⑨超级VIP;等等。
“视见”依赖于视觉功能——“看”,即运用“眼睛”的作用和功能,是整合全部智慧行动或智能行动的关键。当代德国哲学家海德格尔明确指出:“哲学的传统一开始就把‘看’定为通达存在者和通达存在的首要的方式。”在这句话中,海德格尔在“通达存在”这一短语下面加上了着重号。通过这样的表述形式,他似乎要强调:就“视见”仅止于特定“存在者”而言,它属于某种形式上的“近视”;而就“视见”能达于“存在者存在”而言,它需要某种形式的从整体上看待世界的“远见”。这里谈论的“视见”,当然只是一个具体的让自动驾驶“见责任”“见决断”“见后果”的行动伦理问题,但它显然已经不只是一般意义或日常意义上的“路上道德”的“看见”,而就其“视”日常所“视而不见”或日常所“视不可见”而论,这项研究已经是走在探问“技术调节”如何转换出“道德调节”的路上了。为此,我们期待进一步的探索能够开拓出一个面向自动驾驶的“远见”。
“警惕人工智能”,可能是在发展自动驾驶汽车时需要开拓出的一个霍金式的“远见”。它来自对通用人工智能(AGI)的怀疑和恐惧,同时也来自对“人工智能宣传术”的洞察和担忧。有学者称之为自动驾驶汽车的“芝诺悖论”:人们一直在被告知自动驾驶汽车即将驶入街区,它引发的期待与日俱增,在有关它的概念和测试的新闻报道中这一天似乎日渐临近;但人们担心,这一天似乎永远不会到来。“芝诺悖论”大概源自两个担忧:一是对自动驾驶汽车之“不现实”的担忧。这个担忧认为,人们对自动驾驶汽车的普遍期待是由自动驾驶AMAs或通用人工智能的技术预设所支持的,而仅就“超级算力”所需要的电力支持而言,如果不解决电力支持问题,人类进入自动驾驶时代就是不现实的。二是对自动驾驶汽车“被操控”的担忧。这个担忧认为,人们对自动驾驶汽车的普遍期待是被由资本和权力控制的“人工智能宣传术”操纵的。实际上,就技术治理而言,人们真正需要认真对待的是“人工智能宣传术”背后的“资本操控”或“权力之手”的支配性动机。
不可否认,合理的担忧是必要的。杰瑞·卡普兰谈道:“自动驾驶卡车的技术今天已经存在,而且已经可以用非常合理的价格改装到现有的车队上了。装备有这种技术的卡车可以‘看到’所有方向,而不仅仅局限于前方的视野,这些车辆可以在完全黑暗或灯火管制的情况下行驶,它们会即时分享路况、附近的危险以及它们自己的意图。”“更妙的是,它们的反应时间接近于零。”如果注意到卡普兰描述的这个自动驾驶卡车的场景(虽然是“人-机”合作型的自动驾驶场景)是在十年前,那么,我们对于自动驾驶汽车的“芝诺悖论”便会有更直观的理解。因为,经过十年时间的快速发展,自动驾驶汽车已经提升到完全自动驾驶级别(L5),但是这个级别的自动驾驶汽车投入运营或使用仍然需要时间。如果把自动驾驶的“视见”从驾驶行动和“路上的道德”转换到社会行动和“人类的道德”,我们就会发现,更为深层次的挑战并不来自“技术调节”,而是来自“技术调节”无法协调的诸多社会行动或价值观。完全自动驾驶是否会出现在我们的生活中?它在向人工道德行动者演变发展的进程中会演变成为“相对于人而言”的“他者”吗?它会完全取代人类驾驶员吗?它会改变整个交通和运输行业的结构形态吗?它会重构人类社会的交通方式、出行方式、工作方式和生活方式吗?它产生的“异质性”影响会带来对于自动驾驶汽车的信任危机吗?过渡期(同一时间同一路段既有自动驾驶汽车又有人工驾驶汽车)的责任问题会导致不可避免的归责困境吗?显然,技术的变革不能自动地带来社会的变革。《未来道德》一书的作者大卫·埃德蒙兹直截了当地写道:“我并不希望无人车证实芝诺悖论,我希望无人车尽快实现其目标(出现在路上)。如果无人车真的投入使用,将会挽救许多生命。”然而,如果人类社会还没有准备好拥抱自动驾驶汽车,“芝诺悖论”便无法根除。
ImageNet的发明者李飞飞从计算机视觉算法专家的角度对“视见”问题的回应,令人深思。在近期TED演讲中李飞飞说道,地球上第一只眼睛——“三叶虫的眼睛”,大约在五亿四千万年前出现,经过漫长演化,大自然才发展出人类的视觉,而今天,机器“看见”的探索还只是刚刚开始。这意味着,我们谈论“‘视见’即行动”的自动驾驶的伦理,似乎为时过早,因为机器“看见”,仍然只是人类对自动驾驶汽车的一个关于“路上的道德”的期待。
李飞飞写道:“人类的感知力虽然有种种局限,但与机器截然相反。我们从整体上看待世界,不仅能识别世界的内容,更可以进一步理解不同事物之间的关系、意义、过去和未来。这就是‘要点’。我们不仅是见证者,更是故事讲述者。是时候让算法也学习一下这种本领了。”长久以来,人们习惯于把人工智能视作纯粹的科学技术和工程问题。应该看到,这只是一种囿于“存在者层次”的“视点”,不可避免地带有技术主义的“浅见”或“近视”。在《我看见的世界:李飞飞自传》中,李飞飞用了很多不同寻常的词来谈论人工智能及其产品,这些词包括“现象”“颠覆”“谜题”“特权”“自然之力”等,相关的表述已经切近一种“视不可见”的“存在”层次。这对于思考自动驾驶汽车的伦理尤其重要。自动驾驶之“视见”,唯有在这一“存在”的道路上,才能让“责任”回归自动驾驶行动自身。由此,我们才有可能领会李飞飞的话:“现在,一个新词占据了我的思维。如今,人工智能是一种责任,是我们所有人共同承担的责任。”
〔责任编辑:洪 峰〕
(原文载于《江苏社会科学》2024年第4期,下载原文请点击下方“阅读原文”)