自驾车能解决道德困境吗?或许不能,但你更不能
自动驾驶汽车(autonomous car)能够取代人类驾驶吗?这个问题,不是在问技术上能否办到,而是在问是否应该让 AI(人工智能)全权掌控汽车、做出道德决定——前方有三个老人、两个孩子、一个孕妇,非得选一组时,自驾车应该撞谁?这个典型的「电车难题」(注),是目前自驾车各种伦理讨论的核心,甚至有不少论者认为,如果自驾车无法处理这种道德困境,那么自驾车就不应该发展或上路。这种讨论方向不能说错,但其实帮助不大、甚至略嫌误导。
我们常常认为,科技不应该犯错,会出错的科技就不应该采用。这就是为何,一旦自驾车出车祸撞到人,媒体往往大肆报导,视为自驾车危险的明证。然而,真正的问题,不在于科技是否会犯错,而在于科技是否比人更不会犯错。换句话说,面对「应该撞谁」的道德难题时,我们应该看的是:自驾车能比人类做出更好的决定吗?正是在这一点上,用电车难题来做比拟,其实颇有问题。原因是,电车难题不是突发事件,我们有时间考虑,但行驶中眼前突然出现人影往往只有几秒钟,时间少到驾驶根本来不及做决定。有车祸经验的人一定晓得,在车祸当下,我们根本还没做出决定,就已经撞上了——事后多数驾驶都会说:当时脑中一片空白。
自驾车不会一片空白,它持续计算、找出最小伤亡。在这一点上,就算自驾车无法做出比人类更好的决定,但至少不会比人类差,毕竟人类很多时候其实连决定都没做。能够计算伤亡的自驾车,说不定还能让你比任何驾驶都更道德。很多人都同意,牺牲自己抢救多数人或老弱妇孺是一种极高的美德,但我们必须承认的是,这非常难做到(要不然牺牲自我就没什么好歌颂的了)。自驾车可以帮忙——它可以选择死锁轮胎,不撞到其中任何一组人,但让你伤或亡。自驾车反而可以帮助人们克服面临道德抉择时的软弱和踌躇。问题是,这种车子根本卖不出去:MIT 的调查显示,多数人希望自驾车尽可能降低伤亡人数,但又希望他们的自驾车不计代价保护驾驶。我们应该细想,问题究竟出在科技还是人类?
自驾车最难应对的情况,其实跟人类驾驶最难应对的情况一样,就是那些突然冲出的路人或车辆。他们的「突然冲出」,往往是因为违反交通规则。换句话说,自驾车面对的道德问题之所以难以处理,经常是因为那个问题本身就是已经错误行为的后果,而无关于自驾车有无能力做出正确决定。自驾车依赖的是规则(算法),它的最大效用必须在一个其他事物都遵守规则的环境中才能体现。就像车辆能够成为我们主要的交通工具,并不是因为它们本身能够通行无阻、翻山越岭,而是因为我们在各种地方铺设了足够平坦的道路。要讨论自驾车是否犯错,不能只看自驾车本身,也必须看到它的运用情境。
一方面,人类不见得比自驾车更能应付他人违规造成的突发状况;另一方面,困境的根源在于不守规则的人类,而不是自驾车本身。我们常常觉得自驾车难以应付当前复杂的交通情况,是因为我们想象的情境,常常是一台自驾车在「目前的」交通环境中行驶,而这种交通环境充满各式各样不按规定行事的路人和驾驶。不难想象,如果路上的多数车辆都是自驾车,车与车的碰撞一定会大幅降低。同样地,如果有任何新创科技帮助行人不违规穿越马路,车与人的车祸也会变得少之又少。再一次,问题多半在人类,而不是科技。只看到和挑剔科技的不完美,却忽略人类犯下的各种错误与责任,其实无济于事。
因为自驾车难以做出令人满意的道德抉择,所以拒绝或抗议自驾车的发展与上路,实际上见树而不见林。只要自驾车能比人类犯下更少的错误,我们就应该支持、采用、或者接受。指责自驾车造成伤亡(即便非常少数),或者纠结自驾车可能面对的道德困境,往往忽略这样的指责或纠结本身很可能正是最大的伦理问题:舍弃足以大幅降地车祸死伤的科技方法,任由当前以人类驾驶为主的庞大肇事数量持续下去。
注:电车难题是伦理学的思想实验,假设你看到煞车失灵的有轨电车,即将撞上前方轨道上的 5 名工人,而旁边的分支上只有 1 名工人,如果你什么都不做,5 人会被撞死。你也可以按下手边按钮,让车电转轨驶入分支,撞死 1 人。你是否应该牺牲 1 人拯救 5 人?此实验主要探讨效益主义与道德义务论的见解。
*本文(不含图片)原刊登于《周刊编集》第 21 期,2019.03.10