在NHK特别节目的采访过程中,为了了解人工智能可能造成的相关风险,我们曾前往英国牛津大学人类未来研究所。
这个研究所里汇聚了多个领域内极富才能的研究人员,他们致力于解决关乎人类未来的重大问题。许多著名的科学家参加了这里的项目,研究所每年都会发表多篇论文。
2015年,人类未来研究所的研究人员发表了一篇题为《威胁人类文明的12个风险》的报告,引起了舆论的广泛关注。在这篇报告里,人工智能的崛起与核战争、巨大火山喷发并列,被称作是人类未来的威胁之一。
我也在采访中向这里的研究人员提出了很多问题。例如,研究员安德斯·桑德伯格(Anders Sandberg)先生对于自律性人工智能被当作杀人武器使用的危险性,是这样回答的:
“如果这支军队是由人组成的,那么当政府的命令有错误的时候,他们可以拒绝执行。但是,机器人对于命令太过忠实了。”
他对于人工智能存在的问题做出了这样一番描述,给我留下了很深的印象。他告诉我:“问题并不在于机器讨厌我们,而是在于机器对我们没有任何的兴趣。”
桑德伯格先生还说,人工智能“也许会在无意中用非常大的力量把我们踩扁”。
这句话也许和我们这所说的“人工智能没有恐惧心”有着深层次的联系。我想,今后人类与人工智能共存的过程中,如何让人工智能具备像人类一样的价值观和伦理心,会是一个非常关键的课题。
桑德伯格先生还告诉我:“真正的问题在于如何让人工智能理解我们的价值观。”同样,DeepMind公司被谷歌收购的时候,戴密斯·哈萨比斯先生就曾提出设立人工智能伦理委员会。
通过这次采访,我亲眼目睹了人工智能正以令人惊异的速度发生进步,并开始对这个社会产生影响。所以,我们应该把人工智能的伦理问题作为一个重要的现实课题,并抓紧思考这个课题。