(相关资料图)
自动驾驶汽车的发展给社会和个人带来诸多益处,其中比较吸引人的是能够降低车祸发生率,减少伤亡。但这并不必然使自动驾驶获得人们的充分信任,因为无论自动驾驶能够多大程度上降低车祸发生率,都不可能保证绝对安全,意味着我们总有可能遇到危险。一旦遇到危险,自动驾驶系统依据何种道德算法作出决策,将成为至关重要的问题。
自动驾驶系统作出怎样的决策,取决于人们为其编写了怎样的道德算法,这也意味着我们为自动驾驶内嵌了怎样的社会价值。不同文化对生命和事物价值以及紧急情况下的权衡分配有不同的道德态度,这决定了自动驾驶在不同社会运行的过程中或依据不同的道德准则设定自身算法。问题的关键是:都有谁参与共同协商自动驾驶汽车依据的道德算法?谁来决定该采用哪种方式作为自动驾驶汽车运行依据的道德算法?是采取集体决定的方式制定统一规则,还是充分尊重个人选择?
对于自动驾驶汽车在面临紧急情况时应遵循的逻辑规则和依据的伦理规范,学界一般有两种处理方式。一是认为应采取强制的伦理设定。这是集体协商的结果,遵循着共同商讨的原则。软件工程师根据各方协商的结果给事物赋予一个可以量化的价值,根据商定的规则提前将运行方式嵌入到软件中,以便在遇到危险时能够按照提前设定的程序作出决策。二是认为应采取个人的伦理设定。这是指每一个乘客都有权利对所乘坐的自动驾驶汽车进行伦理设定。
伯尼法(Jean-Fran?觭ois Bonnefon)等人认为,自动驾驶的道德问题必须由集体讨论决定,使道德算法与人类价值观相一致,是公民愿意接受的道德算法,也是车主愿意接受的道德算法。伯格曼(Lasse Bergmann)等人也赞同由公众作出选择,认为应该让公众协商抉择出自动驾驶汽车最可接受的道德原则。公众深受不同社会价值观的影响,其选择体现了所在社会系统的伦理规范,因此嵌入公众选择的价值伦理是符合公众利益的。总之,很多人都赞同将集体协商的道德准则和伦理规范作为自动驾驶汽车紧急情况下依据的行动指导。
并且,实验表明,个体在面临生死决策时,往往会作出对自己最有利的决定。在紧急时刻,个体都并非是依靠理性进行判断之后采取决定,更多往往是遵循内心的求生本能,依据直觉作出决定。当然这个直觉也包含理性思考层面,但由于情况的紧急性,这种理性思考往往并没有那么“理性”。所以,学界一般认为,自动驾驶汽车应采取强制统一的伦理标准,这才能体现自动驾驶汽车运行的优势,在最大程度上减少伤亡。
本文认为,强制的伦理设定和个人的伦理设定并不冲突,二者不是非此即彼的关系。相反,二者是可以相互融合与补充的。我们确实是需要提前将协商一致的道德算法嵌入到自动驾驶汽车中,让其能够根据算法在紧急时刻作出决策,但这个统一的伦理标准是以情境性为基础的。
首先,依据地方性的不同特征,通过多方协商讨论出符合绝大多数人利益的伦理规范,将商讨的伦理规范提前嵌入到自动驾驶系统中。其次,在“最小化总体伤害”的原则下,将情境个人选择纳入考虑范围中,依据自动驾驶汽车遇到的实际情况作出道德决策。自动驾驶系统应依据不同情境对价值进行赋值,充分考量发生事故的可能性与发生事故的后果;并在作出决策时综合考虑各方面因素,以便在不同的场景中作出最大程度减少伤亡的合理决策。统一的伦理标准应为汽车制造商、法律制定者、行人、乘客、伦理学家等各方协商的结果,要符合法律的规范。
(作者单位:清华大学科学史系)