会思考的机器杀手让我们良心安慰

时间:2023-11-21 08:29:02

科特·格雷(Kurt Gray):北卡罗来纳大学教堂山分校心理学助理教授

会思考的机器杀手让我们良心安慰

机器帮助人类杀戮有着很长的历史:从投石机到巡航导弹,各种机械系统让人类能够更高效地互相毁灭。尽管杀人机器正变得日益复杂化,但有一点始终不变:它们的杀戮行为在道德上总是应该由控制它们的人类负责。枪械和炸弹本质上没有意识,因此所有责任就都转移到了扣动扳机的人身上。

假如机器有了足够的心智,能够自发作出杀戮的决定呢?这样一部思维机器自然应当背起骂名,让那些从它的毁灭行为中得利的人的良心获得安慰。思维机器能以多种方式让这个世界变得更好,也能让某些杀人犯逍遥法外。

人类早就梦想着能够与暴力行为撇清关系,在从伤害他人中收获利益的同时不必自己挥动镰刀。机器不仅能够增加暴力行为的破坏性,还在事实上掩盖了我们的所作所为。拳打、刀刺和绳勒已经被换成了更远程也更有品位的摇杆操作和发射按钮。然而,即便因为机器中介体的出现使物理距离增加,人们心中仍然会将暴力归罪于躲在机器背后的黑手。

道德心理学的研究揭示:人类在面对苦难时,有一种深藏于内心的责怪他人或他物的冲动。当他人受到伤害时我们总想找到根源,而且是心智上的根源——造成了这些伤害的某个具备思考能力的生物。这种具备思考能力的生物通常是人,但不必是人。每当飓风或海啸过后,人们总会埋怨上帝;在某些历史场景中,人们甚至想让牲畜负责——曾经就发生过一个法国农民起诉一只猪谋杀婴儿的事件。

一般来说,要满足人类对指责的渴望,只需一个思考个体顶缸就行。我们找到第一个可以为罪行负责的思考个体时,去找另一个的兴趣就会减少。如果可以怪罪到人头上,就没必要咒骂上帝。如果可以责备一个低等级职员,就没必要炒了CEO。如果害死某人的罪过可以栽到一个思维机器的头上,又何必责罚那个从中获益的人呢?

当然,一部应该接受责罚的机器首先必须是一个合格的思考者,并能以全新的、没人提出过的方式行动。也许机器永远无法作出真正“新”的事情,但同样的道理不也适用于被进化和文化背景“编程”的人类吗?想想人类儿童,他们毫无疑问被父母“编程”着,同时又能依靠自己的学习能力发展出新行为、培养道德上的责任感。与儿童类似的是,现代机器也很擅长学习。所以它们在未来的某天作出让程序员始料不及的事情,似乎是板上钉钉了。现在已经有一些算法能够发现算法作者没有告诉它们的事情了。

一旦思维机器能够自作主张,就可能自行作出杀戮决定,并袒护人类逃脱罪责,化身为人类意志与毁灭行动之间的中介。机器人已经在现代战争中扮演重要角色:无人机在过去的几年中已经屠戮数千人,但它们目前仍然由人类操作员全权控制。如果想在这个例子中找替罪羊,这些无人机就必须由其他智能机器操纵;这些机器必须自行学习如何遥控“捕猎者”。

这种场景可能会让你(以及我)感到脊背发凉,但在决策者看来,这种方案固然冷酷,但合情合理。如果误杀平民的责任能推给机器,那么某些人在军事上犯的错对他当选概率的负面影响就会更少。不仅如此,假如思维机器能被送去大修或拆除(机器界“大刑”),人们想惩罚那些当权者的可能性就会更低——无论是战争罪行、(机器)手术失败,还是(自动驾驶)车祸事故。

思维机器很复杂,但人类热衷于指责他人或他物的冲动相对更加简单。死亡与破坏驱使着我们寻找一个应该为之负责的具备思想的个体。如果在人类与破坏之间加入足够聪明的机器,就能让它们承担起恶行的重负,让人类的良心免受他人的谴责。我们都该盼望这一预言永远不要成真,然而每当先进的科技与现代人对道德心理学的浅薄理解相互碰撞时,潜伏的阴暗就会浮现。为了保持良心的安稳,我们所要做的不过是制造一台思维机器,然后谴责它罢了。