塔夫斯大学正在研究开发的项目是,当人类下令让机器人去伤害人类或其他机器人的时候,机器人可以凭借自身判断“拒绝”这样的指令。
听到他们的介绍,我马上想到的就是机器人三定律。这是科学家、科幻作家艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《我,机器人》(1950年)中提出的机器人开发原则。简单来说,就是开发出的机器人要做到:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一法则,否则机器人必须服从人类命令;除非违背第一或第二法则,否则机器人必须保护自己。
虽然这个三定律是小说中的内容,但是它常在机器人研究中被提及。不过,当我向休茨先生提及这三定律时,他的回答非常耐人寻味:“只是这么简单,是无法在现实中应用的。”
也就是说,为了在现实生活中应用,开发者必须根据各种情况,考虑更加细致的规则和伦理问题才行。而且,在不同情况下怎样做才符合伦理,是无法一概而论的。
例如,在无人驾驶的开发方面,常常有人提起电车难题(trolley problem)这个与哲学和伦理有关的问题。
这个问题是这样的:正在行驶的电车的刹车坏了,电车的正前方有5个人,这样下去5个人都会被碾死。在撞到这5个人之前,有一个铁轨交叉点,拉动把手就可以变换轨道。而在另一条轨道上也有1个人,如果变换轨道就会碾死这个人。在这种情况下,要选择哪条铁轨呢?
这是人在千钧一发时的判断,所以问题本身也许带着一点恶意。不过,当这个问题与无人驾驶扯上关系的时候,就不能用一句“有恶意”打发了。因为,在无人驾驶汽车正式在市场上发售之前,开发者必须要编入相关的算法。我们人类将哪种选择视为正确,将会成为机器人要遵循的规则,必须事先决定好。
据说对于这个问题,个人的判断倾向会有所不同。根据某个调查的结果来看,越是社会地位高的人,越倾向于变换轨道只碾死一个人。
而当问题发生变化的时候,人的判断也会随之发生变化。
假设你与一个陌生人站在桥上。这时,桥下有五个人快被失控的火车撞到。如果想要制止电车,必须将那个陌生人推下桥——当问题变成这样时,虽然本质仍然是让人判断要舍弃5个人还是舍弃1个人,但伴随着推下这个动作的出现,就会有很多人认为这是杀人行为,不会选择把陌生人推下桥。
再举一个由此衍生出来的问题,有5个病人需要不同的器官移植才能存活,那么是否可以杀死1个人,取出他的器官来救这5个人呢?这可真是一个可怕的问题,但是杀死一个人,就可以拯救5个人的性命。面对这个问题,也有很多人改变了自己的选择。
我认为,迄今为止,人类还未曾深究过这些难以回答的伦理问题。想要为前述的这些问题设置一个能在全世界、全社会通用的正确答案,必然会掀起轩然大波。