默里·沙纳汉(Murray Shanahan):伦敦帝国理工学院认知机器人学教授;著有《身体与内心世界》(Embodiment and the Inner Life)
假设我们能让一台机器具备人类级别的智能水平,换句话说,它在智力活动的各个方面都能达到常人的水平,甚至在某些方面还能超越人类,那么这样的机器是否就能拥有意识?这个问题很重要,因为对于这个问题,肯定的回答会让我们不知所措。我们该如何面对这种由人类自己创造出来的东西呢?它能否感知到苦难和欢愉?它值得拥有与人类相同的权利吗?我们真的应该创造机器意识吗?
达到人类级别的智能水平是否就一定具有意识?这也是个难题。困难之一就是,对于人类和其他动物而言,意识往往糅合了多种属性:所有动物都表现出目的性,都能或多或少地感知到自己所栖息的环境以及周遭的一切,并且在某种程度上,都表现出认知整合的能力。也就是说,它们能把感知力、记忆力、技能等一切精神资源调动起来,以应对周遭的环境,从而实现自己的目的。从这点来看,所有动物都表现出了一致性和利己性。包括人类在内的某些动物,可以感知到自己的身体和流动的思想。而且,绝大多数动物都能感受苦难,某些还有同情心。
对于健全的人类而言,所有这些属性都是交织在一起的。但是在人工智能身上,它们有可能是独立出现的。因此,我们的问题要更加精准一点:人类意识中的哪些属性有可能出现在人工智能身上?当然,每一个列举出来的以及其他未提及的属性都值得认真对待。我只挑出其中的两种:对世界的感知力以及感受痛苦的能力。我认为,对世界的感知力是人类级别的智能所必备的属性。
显然,如果不具备语言能力,就称不上是人类水平的智能。而人类语言的主要功能就是描述周围的世界。从这个角度看,智能必然具备哲学家所说的意向性。更进一步看,语言是一种社会现象,在人群中,语言的主要功能就是描述他们在过去、现在、未来已经感知到的,以及可能感知到的事物,比如一件工具或一块木头等。简单地说,语言产生的前提是对世界的感知。而对于具有实体的动物和机器人而言,这种感知力可以从它们与周围环境的互动中表现出来,比如避开障碍物、捡起物品等。我们也可以把范围扩大到那些分散的、通过特定的传感器连接起来的非实体的人工智能。
如果想令人信服地将感知力作为意识的某一属性,还得结合其他属性,比如意向性和一定程度的认知整合能力。因此,即便是人工智能,这类三合一的属性也是相互交织的。但暂且把这个问题放一边,重新来看感受痛苦和欢愉的能力。与感知力不同,人工智能的意识中需要具备这类属性的原因不太明显,虽然对人类来讲,这种属性是和意识紧密相连的。我们可以想象这样一部机器,它可以完成一系列需要人类智力才能完成的任务,整个过程不带一丝一毫的情感。在这种情况下,这类机器就很难称得上具有意识。正如英国哲学家杰里米·边沁(Jeremy Bentham)所言:当我们考虑如何看待其他动物的时候,不是看它能否推理或者说话,而是看它们能否受苦。
我并非要强调,纯粹的机器就一定不具备感受痛苦和欢愉的能力,也不是说生物体在这方面有什么特殊之处。相反,我想指出的是:这种感受痛苦和欢愉的能力,是可以从人类意识的诸多精神属性中分离出来的。让我们进一步来验证这种分离的合理性。我前面提出,对世界的感知力总是和意向性结合在一起,动物对世界的感知力——趋利避害的能力,基于它自身的需求。当它看到危险的捕食者时,就会避开;当它看到自己的猎物时,就会靠近。在这一系列目标和需求的背景下,动物的行为都是有意义的,而当它们的目标没有实现、需求未被满足时,它们会有挫败感。这就是遭受痛苦的原理依据。
人类级别的人工智能又会如何?难道它们就不具备一套复杂的目标吗?它们实现目标的努力就不会受挫吗?虽然人工智能的构造可以让它免受人类生理上的痛苦,但是当它处于恶劣条件下时,我们能否说人工智能也在受苦呢?
此时,想象力和直觉力已经碰到了天花板。我认为,在这种东西真正出现以前,我们无法找到答案。只有当更成熟的人工智能成为我们生活的一部分时,我们的语言游戏才能适用于描述这些“外星人”。当然,那个时候再来考虑它们是否应该出现在这个世界上,就为时已晚了。无论好坏,它们都已经出现了。