道德机器

时间:2024-06-27 10:26:03

本杰明·伯根(Benjamin K.Bergen):加州大学圣迭戈分校认知科学系副教授;著有《无须多言》(Louder Than Words)

道德机器

机器正在为我们做决策。曼哈顿的交易机器监测着股价的变动,在微秒级的时间内就可以决定购买一家科技公司的数百万股票;加州的自动驾驶汽车检测到前方行人,就可以作出避让的决定。

这些机器是否会“思考”并不是问题所在,真正的问题是我们将决策权给了它们。这个问题将变得越来越重要。人们的储蓄和投资依靠它们,人们的生活同样如此。随着机器所作出的决策对人类、动物、环境,以及国民经济的影响越来越大,这个赌注也在变大。

请考虑这样一个场景:在一条主路上,自动驾驶汽车检测到前面有行人,而它迅速意识到没有可以避免伤害行人的做法,接下来一定会撞伤行人,而紧急刹车会造成后面的车辆追尾,也会造成伤害,只能调转方向。这时,机器要根据何种程序来作出决定?它该如何计算并权衡对不同人不同类型的潜在伤害?多少人的受伤抵得上一个人的死亡?多大的财产损失抵得上20%可能性的事故?

这些问题太难回答了。我们无法依靠更多数据或更强大的计算能力来解答这些问题。这些问题关乎伦理上的正确性。我们正在让机器去做道德决策。面对这种复杂问题时,我们通常把人当作模型来思考。人会怎么做?我们就把人的做法重新放进机器里。

问题是,当人类面对道德难题时,总会作出不一致的决策。人们总说自己信仰的是对的,但是所作所为却总是不一致。道德计算随时间和文化的差异总是不一样。而每一个场景的特殊性也会影响人的决定:人行道上是个儿童还是成人?那个行人有没有喝醉?他是不是看起来像一个逃犯?我后面那辆车会不会追尾?

对于一台机器,如何做是正确的?

对于一个人,如何做是正确的?

科学在回答道德问题时总是显得力不从心。我们要交给机器来做的决定,必须保证由“谁”来回答这些问题,而这个“谁”是人类的可能性是非常有限的。