人类的责任

时间:2023-11-21 08:49:01

玛格丽特·利瓦伊(Margaret Levi):斯坦福大学行为科学高级研究中心主任;华盛顿大学荣誉教授

人类的责任

有些任务或工作,只有会思考的机器才能做到最好——至少在谈到分类、配对,以及解决特定的、超越大多数(乃至全部)人类认知能力的决策和诊断问题时,我们可以这么说。亚马逊、谷歌、Facebook等互联网公司的算法都建立在群体智慧的基础之上,同时又在速度以及精确度上超越了群体。有了这些为人类代劳思考,甚至代劳工作的机器,我们或许能够摆脱无聊而又不人道的繁重工作,过上乌托邦式的生活。

跟随这种解放而来的,还有潜在的代价。人们想过上幸福生活,不仅仅是把工人统统换成机器那么简单。我们还需要考虑:那些被替换的人下岗之后该如何养活自己和下一代?他们原本花在工作上的时间该用在哪里?

第一个问题也许用“最低收入保障”就能解决,但它其实回避了新的问题:我们的社会应该如何分配或重新分配财富及自我管理,才能满足这一需求?第二个问题就更复杂了。这些下岗工人当然不会像马克思随口说的那样下午钓钓鱼、晚餐时再思考一下哲学问题。像教育、娱乐以及那些机器做不好或根本做不了的工作,只有人类才有资格思考。用面包和马戏团也许能安抚一方百姓,但在这种情况下会思考的机器可能创造了一个我们并不真正想要的社会,不管这是个反乌托邦的社会,还是个完全无害却无比空虚的社会。不仅机器依赖着设计架构,社会也是如此。而社会的设计是人类的责任,不是机器的。

另外一个问题是,这些机器该持有怎样的价值观,它们会侍奉哪些主人?许多决策(尽管不是全部)都擅自假定了某种类型的约定或价值。同样,这些也必须纳入考虑,因此它们都要取决于(至少在开始时)创造并支配这些机器的人类持有怎样的价值观。无人机被设计用来攻击与监视,但攻击谁、监视谁?只要有了合适的机器,我们就能将文学和知识更深入、更广阔地在全世界人中拓展。但又由谁来决定我们该学什么内容、该把哪些事情归为现实?有种浅薄的观点认为:去中心化的竞争意味着我们能够选择学习什么、从哪个程序中学习。其实竞争更可能产生而不是去除那些回音室般不断自我增强的信仰与理解。我们面临的挑战是:如何指导人们对相互竞争的范例产生好奇,并让他们用合理的方式进行思考,以能够从这些竞争内容作出裁决。

会思考的机器可能会,也应该会承担起它们比人类做得更好的任务。从毫无必要又极不体面的苦役中解放,一直以来都是人类的一个目标和创新活动的主要动力。弥补人类有限的决策制定、问题诊断和个体抉择的技术问题也都是具有同样价值的目标。不过,尽管人工智能可能减少人类的许多认知压力,但它们并不能取代人类的责任心。我们必须确保自己不断改进基于价值和同情心进行思考并作出合理决断的能力。拜会思考的机器所赐,我们产生了对不曾构造过的问责机制的需求,也产生了对出乎预料的后果的社会(人类社会)责任的需求。