当前,自动驾驶发展迅猛,基于L3—L4级别自动驾驶技术的商用车及自动驾驶开放道路已渐成规模。但与此同时,L2级别自动驾驶汽车的事故却时有发生,并面临着恶劣天气、临时管制、交通路口、路面落物或反光等大量挑战。要应对全天候全场景,自动驾驶仍有较长的路要走。人工智能内部有着不同的技术路线,总体上可分为专用人工智能与通用人工智能两类。二者具有不同的前提假设和理论依据,对相同问题也有不同的解读和回答,因此需要区别对待。在自动驾驶领域,专用人工智能路线对应L1—L4级别,而通用人工智能则对应L5级别。这里将针对专用人工智能路线下自动驾驶的伦理与责任问题进行讨论。

  专用人工智能框架内不存在伦理问题的“技术解”

  对于自动驾驶,“拥抱”还是“排斥”——这是个难题。事实上,尽管当前人们对自动驾驶的诸多忧虑大多“技术可解”,即能够通过改进技术方案或强制人工介入的方式进行解决。但技术问题之外的相关领域却聚讼不断,并以伦理为最。2020年8月,国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部五部门联合印发《国家新一代人工智能标准体系建设指南》,明确设立“H安全/伦理”类,意在规范人工智能服务对传统道德伦理和法律秩序产生的冲击。

  关于专用人工智能路线下自动驾驶的伦理问题,目前有关“电车难题”的讨论较为广泛。一辆疾驶的电车,前方两条支线,每条支线上都站有数量不等的无辜平民,问司机如何抉择。这是“电车难题”的经典表述方式,后续又相继出现了各种变体。而自动驾驶在方向选择矛盾的基础上又叠加了另一个两难之选:高速行驶的自动驾驶汽车,避让行人会导致主驾身亡,不避让则会导致行人死亡。实际上,自动驾驶的“电车难题”背后就是两个伦理冲突的算法设定问题:如果相撞不可避免,牺牲自己还是他人;如果牺牲他人不可避免,牺牲多些还是少些。这二者同时也是构筑伦理学大厦的两大基石:主体性及客体价值。

  专用人工智能以解决特定领域问题为出发点,通过技术迭代渐进提升智能化程度。由于技术路线本身的局限性,专用人工智能能够解决封闭问题,但对开放问题却力有不及。专用人工智能其实并不能“思考”而只能“计算”,且“计算”的模式是由人工直接或间接实现的。前者对应的是“人工算法”,即由相关领域专家直接确定规则而定的算法;后者对应的是“数据算法”,即规则不由人工给出而从真实数据中间接提炼获得。但无论何种,都无法确保对开放问题的涵盖性足够广阔和丰盈。进一步说,如果放松限制,使人力和数据的丰富程度得到足够满足,规则本身依旧有可能因证据来源差异而产生内部冲突。在不同回答皆有正面与反面证据的情况下,判别的前提、出发点不同,结论也将各异。伦理问题属于经验问题,而经验问题并不等同于计算问题。于是,“电车难题”不可能在专用人工智能框架下直接给出稳定的最优解。

  那么,间接的方式是否可行?事实上,穷举就是一种典型思路。标准做法是,采集自动驾驶的各种环境条件、司机和行人的行为与心理特征以及汽车的各种参数,继而对可能空间的组合进行穷举,并根据“合理”的先验知识、时间序列特征对权重网络模型进行调整。这是目前主流人工智能领域深度学习的核心方法。不过,即便自动驾驶汽车的硬件设备足够先进,其计算能力在某一特定时刻依旧是相对不足的。如果离开规范的自动驾驶路段而驶入开放路段,穷举的方式无法确保在有限时间内总能顺利地感知、运算并返回结果。这体现了专用人工智能所谓“感知智能和计算智能”的根本局限之一——将智能与计算相等同。

  退一步而言,即使穷举总是可执行并能够返回结果,开放环境的内容仍是不可穷尽的。因此,自动驾驶系统对开放环境的经验准备也总是相对不足的。这体现了专用人工智能另一个根本局限——知识工程黑洞,即开放环境的可能空间无法穷尽,总会遇到意外的棘手情况。这意味着,程序员无法将伦理规范价值量化后的“道德代码”完备地置入汽车驾驶软件。

  又退一步,假如处于理想世界,穷举的方法和内容都能逐一枚举,此时系统的最终决策也会受到巨大挑战。在“大算力”“大模型”“大数据”的加持下,解释黑箱的问题仍不可避免。当前,自动驾驶的技术路线多基于统计学习,决策依据更多来自概率而非逻辑模型,决策的信度和效度并不透明,这令自动驾驶事故判定难度变得更高。

  再退一步,即使决策的有效性和解释不是问题,最优化也依旧无解。因为,这会使系统不可避免地陷入“目标悖论”。比如,摩托车骑行者若知道自动驾驶汽车会优先保护生存概率最低者,头盔之类的安全措施反而会让佩戴头盔的骑行者成为高危的移动牺牲者。这可能导致遵规守纪的人反而会面临更高的事故风险。

  因此,在专用人工智能的语境下,由于不能总是将伦理冲突转化为合理的经济等价式的形式化价值计算,所有嵌入“道德律令”的做法无法永远满足开放条件下自动驾驶多重问题的解决。说到底,伦理本质上是价值的“判断”,而非价值的“估算”。专用人工智能没有主体性,无法自主进行价值判断。所以,专用人工智能框架内不存在伦理冲突“技术解”的可能性。

  理清自动驾驶伦理问题与责任问题

  专用人工智能框架内不存在伦理冲突的“技术解”,是否会对自动驾驶宣判“死刑”?不仅不会,还恰好相反。问题的要害在于,理论层面的伦理问题与应用层面的责任问题,这两个相关但不同的问题之间存在隐蔽的混淆。

  研究表明,自动驾驶系统比人类驾驶员具有更高的安全性。这种安全性还体现为规模的指数化,即自动驾驶越多,交通的整体通畅和安全水平越好。因此,自动驾驶出行方式是大势所趋,而学界的焦虑主要来自对自动驾驶事故责任的认定。考虑到专用人工智能技术本身的技术特点,L1—L4级自动驾驶的责任问题可分类讨论。

  其一,封闭路段。满足自动驾驶的封闭路段,道路服务商必须能够提供下述基本服务:确保路面畅通、无杂物堆积、标记线和指示牌清晰无误,为重要地点设立智能枢纽,提供异常天气、地质灾害预警等。如果道路工况不达标,道路服务商应对自动驾驶事故承担主要责任。如果道路工况达标,则应检视自动驾驶汽车是否存在硬件或软件故障,部件有问题则由相关厂商承担责任,部件整合搭配问题则由整车制造商承担责任。在车辆前行方向若出现横穿马路的行人或动物,行人违规则由行人承担责任,穿行者是动物则由道路服务商承担责任。这类似在高速公路上,汽车可以高速行驶的预设前提是道路服务商为车辆提供必要的全程封闭管制,不允许非机动车或行人在高速公路上穿行。此时,自动驾驶汽车驾驶员不承担事故责任。

  其二,开放路段。在不满足完全自动驾驶条件的开放路段进行自动驾驶,其行为本身已包含发生潜在交通危险的可能性。如果发生交通事故,可分为以下几种情况。1.我方和对方都遵守交通规则。这种情况应进行调查,根据事故缘由进行责任认定,由保险公司、自动驾驶部件或整车制造商、道路规划与运营方、驾驶员等承担相应责任。2.我方遵守交通规则,对方违反交通规则。由对方承担主要责任,由驾驶员承担次要责任。3.我方违反交通规则,对方遵守交通规则。如果因破解系统造成与厂商版本不同,则由驾驶员承担全部责任,否则由自动驾驶部件或整车制造商承担主要责任。4.我方和对方都违反交通规则。如果因破解系统造成与厂商版本不同,则由驾驶员和对方共同承担责任,否则由自动驾驶部件或整车制造商与对方共同承担责任。

  综上所述,基于专用人工智能技术的自动驾驶系统不存在“机器道德主体地位”问题,机器不能作为法律惩戒对象而必须由责任人来承担责任后果。在遇到自动驾驶事故责任认定问题时,也并未超越现行法律体系的有效调控范围。也就是说,我们可以将自动驾驶系统也视为车辆专用系统的一个基本部分(和轮胎等其他部分不存在本质区别)。若在正常使用情境下出了问题应由相应产品提供商负责;若在超出正常使用范围或未遵守相关注意事项的情况下出现问题,责任则应由使用者本人承担。

  最后,从计算问题、法律问题再回归到伦理问题。在计算层面,自动驾驶没有技术的“伦理解”;在法律层面,自动驾驶的实际应用也无伦理障碍。在专用人工智能框架下,自动驾驶的核心特征强调工具的自动化(L1—L4级别)而非自主化(L5级别)。工具性意味着其只能确保在既定使用范围内正常工作——这是理解自动驾驶合法性和有效性的前提。然而,在伦理层面的“电车难题”及其变种,本质上都是在前提为一对互斥矛盾且前提必须成立的情况下寻求矛盾化解方案。换言之,这是在伦理空间中预设无法突破的矛盾冲突,却试图在法律空间内用经济手段寻求伦理解。因此,“电车难题”中的电车司机在法律上应为无责的,需要负责的是铁轨上的人或是背后促使其在铁轨上的人。

  伦理问题未必都有合理解,有合理解也未必有最优解,这反映了开放世界价值判断的多元性。多元的价值判断,导致很多情况下不存在最优解而只有“可行解”甚至“无奈解”。这意味着在元伦理学范畴内,伦理学系统的“公理化”理论假设本身就面临“非公理化”现实的无情挑战与深刻诘责。因此,尽管“电车难题”中的电车司机至今仍不知如何是好,却并不妨碍电车、汽车、火车、飞机、轮船等各种交通工具的使用越来越普及、智能化程度越来越高。归根到底,在专用人工智能框架下,L1—L4级的自动驾驶伦理难题“不足为惧”:伦理难题既非自动驾驶所专有,也无须自动驾驶技术来终结,更不会成为其应用推广的阻碍。

 

  (作者单位:渤海大学教育科学学院、通用人工智能研究所)