格雷戈里·本福德(Gregory Benford):加州大学欧文分校物理学和天文学名誉教授;其科幻小说《时间景象》(Timescape)曾获星云奖
人工智能不一定是弗兰肯斯坦的怪物,我们相信反对者们会坚持这种看法。而且,我也相信人类最神秘的能力:发明与创造。
以自动驾驶汽车为例。在什么条件下,它们的导航算法会突然蓄意谋杀乘客?如果你精通于设计的话,这种情况根本没有可能出现。对于空难和车祸的恐惧是对低水平人工智能的一项必要检查。
为什么人们会担心未来的算法是危险的?因为他们害怕恶意的程序设计,或者认为算法中会有伤害到我们的不可预见的含义。这是一种貌似合理的想法,但并不正确。
我们的恐惧是最好的防御。没有危险的算法能逃脱许多质疑它的检查员的严格目光。任何在我们实际生活的物理世界中拥有能力的人工智能,都会经过许多检查,而且还会有现场试验、有限次数使用体验,等等。这将阻止那些可能造成伤害的失控人工智能的应用。即使如此,我们也应该认识到,人工智能像许多发明一样,在进行军备竞赛。自从1969年我发明了第一个计算机病毒以来,计算机病毒便成了第一个例子。它们与杀毒程序比赛,但它们仅仅只是令人厌恶,并不致命。
智能破坏算法(例如,超级工厂病毒的未来版本)已经扩散到了互联网上,并且情况还会更糟。这些破坏算法会悄悄渗透进政府和企业的许多日常操作。它们中的大多数都来自危险分子。但随着遗传编程和自主代理软件的出现,它们能够按照达尔文进化论偶然地发生变异和进化,尤其是在没人注意的地方。它们仍会变得更聪明。分布在许多系统和网络中的计算会让我们更难了解其检测部分与更高阶的整体之间的关系。所以有一些算法很可能会逃脱严格的审查。但防御算法也能进化,根据拉马克学说,定向选择进化得更快。所以防御算法是有优势的。
人类是丑陋的、坏脾气的、卑鄙的,但这也是我们很难被杀死的理由之一。我们战胜了许多敌人——食肉动物、恶劣气候的冲击、与其他原始人类的竞争,历经了数十万年,逐渐演化成为一种脾气最坏的物种,被几乎所有其他的物种畏惧。当我们走过森林时,森林会变得安静,因为我们是顶级捕食者。
这赋予了我们思考的本能和习惯,它显露于看似良性的事情中,例如足球、橄榄球以及无数其他球类运动。我们喜欢去追逐和操纵跳动的小球,并努力去控制和捕捉它。为什么?因为我们曾经为了生存做过类似的事情——捕猎,踢足球像追捕一只兔子。类似的动物能量在我们社会的表面之下酝酿。任何有野心接管世界(很多悲观科幻电影的主题)的人工智能将会发现,在自己的领土上遇到了一个灵巧、易怒、聪明的物种。真实的物质世界,不是0和1的抽象计算。我的赌注是基于动物的本性。
唯一需要我们担忧的是:我们将会让算法比人类更好地执行抽象动作。因为高智能软件的出现,许多工作已经消失。但随着人工智能变得更聪明,人类的自信心会被摧毁吗?我认为这是真正的危险,但对于大多数人来说,这只是一个小危险。很多人因为计算机失去了工作,尽管计算机从不拍那些让你失业的人力资源管理人员的马屁。中层管理人员、秘书、卡车公司的路线规划者……这个名单是无止境的:他们被软件所取代。但他们很少会感到崩溃,他们大多已经改了行。我们已经学会了如何去妥善处理这些事情,不会再倒退到卢德分子的疯狂状态。但我们很难妥善处理如今看来只是远方地平线上的一片小小的、遥远的、黑暗的云朵:在最高级别表现得比人类更好的人工智能。
这片小小的云朵目前不会让我们担忧。它可能永远不会出现。目前,我们在让人工智能通过图灵测试的问题上遇到了麻烦。前景会在未来的10~20年变得清晰。到那时,我们可以认为人工智能能够解决例如广义相对论、量子力学之谜这样的问题。就我个人而言,我想看到一台能够承担这些任务的机器。智能真正关键的部分——创造力,甚至人类都不完全明白,目前在人工智能中也未被完全证实。我们的潜意识对于创造力来说似乎是不可或缺的(我们没有思想,但思想拥有我们),所以人工智能应该拥有潜意识吗?或许,甚至连巧妙的编程和随机的进化也无法创作出这样的人工智能。
如果有一天,我们战胜了这个巨大的障碍,拥有了这种人工智能,我不会害怕它——我准备了一些很好的问题去问它。