杰西卡·特蕾西(Jessica L.Tracy)、克里斯汀·劳林(Kristin Laurin):特蕾西:不列颠哥伦比亚大学心理学副教授劳林:斯坦福大学商学院组织行为学助理教授
当我们思考思维机器时,第一个涌现的问题是:最终,这些机器会有多像我们人类?这个问题归根结底是一个有关“自我”的问题。思维机器会发展出类似于人类的自我意识吗?我们(可能)是仅有的拥有自我意识的物种——我们不仅有自我感,还能从自我这个内部视角看待其他各种“自我”。
机器究竟能否发展出自我意识?它们也能经历并感受到那塑造了人类自适应的自我意识的进化力量吗?这些力量来自个体之间的相互交往需求、获取地位的需求、确保他人能够喜欢接纳自己的需求、期望其他团体接受自己的需求。作为人类个体,如果你想在群体生活中生活下去,就需要有“自我”意识,而且要保护好它、强化它,因为这样做确保了别人会喜欢、尊重、认可你,而所有这些最终都会让你的寿命更长,且让你有更多的时间和机会繁衍后代。你的自我感也是帮你理解他人同样拥有自我感的前提,这种认知能力是社会生活的两个先决条件——同情和合作所必需的。
机器到底能否体验到这些进化力量呢?让我们从以下假设开始:假设未来的机器能自主获取自己想要的资源,例如,能自主获取电力和网络带宽(这个过程不受人类控制),并且能为自己的生死负责(不是由人类掌控它们的生死)。在以上假设的基础上,我们继续假设:能够在这样的环境里存活下来的,是至少拥有一个基本的自我相关目标(提高自己的效率或生产力)的机器。这种基本目标类似于人类基因的自我繁衍目标。在这两种情形中,目标驱使行为朝增强适应性的方向前进——无论是具有基因的个体,还是运行程序的机器,都是如此。
在以上设定的环境里,机器可能会产生与同类相互争夺有限资源的动机。那些能够牺牲自己的部分利益来换取未来更大利益的机器会形成联盟,当然,显而易见,这些机器将会在这场资源争夺战中收获更多。由此看来,未来可能会是这样的:未来的社会环境非常适合机器演变成社会动物,与其他机器建立关系,并发展出类似于人类的自我意识。
然而,对于以上假设,有一个警告值得注意。即任何类型的机器社会与人类社会相比,两者都可能存在本质上的区别。对此有一个关键的原因:在社会活动中,不同于人类的社会交往,机器可能只是直白地读取其他人的想法,它们似乎不需要而且看来也非常缺少我们人类所依赖的有辅助作用的移情心理。它们能够直接理解其他人想法的内容,这使得它们与其他人的交往明显不同于我们一般意义上的交往活动。无论大量社交有多么重要,在本质上,人类个体都是孤独的。我们只是在隐喻的意义上感受理解他人的想法,我们不能确定别人头脑里的真实想法,至少不会像理解我们自己那样笃定。这样一种约束在机器那里并不存在。一台计算机能够直接获取另一台计算机的“思想”,而且在明确的自知意义上,也不存在一台机器不能读取另一台机器的软硬件设备的现象,因为它们是同类——我就是你,你就是我,没有谁更特殊。一旦这样直接相互读取理解对方的事情成为现实,那么每一台机器将不再处于相互分离的自我状态(在人类的自我意义上)。因而,当机器们共享思维时,它们的任何自我都将变成集体意义上的自我。
当然,机器之间也能非常轻松地通过各种信息比特来进行身份区分。然而,一旦某一个体完全理解了另一个体的程序,那么自我和他人的区别也就显得没有必要了。
举例来说,如果我下载了你计算机中的所有文件,然后将它们存入我的计算机,那么这不就相当于你的计算机已经成了我的计算机的一部分了吗?如果我将我们的计算机永久地设置为相互连接、相互备份,那么你还觉得它们是两台独立的计算机吗?难道你不认为它们是一体的吗?相反,人类个体之间永远无法以这样的方式了解对方,这与我们的努力无关,而是我们的颅骨阻止了我们这样做。但对于机器来说,自我扩展不仅是可能的,而且是一个为了各群体之间可以更好地竞争、分享资源而设置的目标程序最有可能产生的结果。
当机器拥有了自我意识时,它们可能会因为高度的集体意识而建立起人类并未经历过的新社会,这也许更像蚂蚁的真社会性(eusociality)——它们的极端基因关系使得每一位成员都会高度自觉地为集体利益牺牲。尽管如此,机器具有自我意识的可能性仍是值得期待的。毕竟,自我意识是同情心的根源,因此机器如果具有通常意义上的自我意识,也就会有同情心,也就会更加“人性化”。自我意识可能会驱动机器去保护(或至少不会伤害)一个在智力上比它们弱几个数量级的物种,并与其共享那些让它们了解自身的事物。
当然,相比于人类社会的同情心,我们能否在比自己聪明许多的机器人那里获得更多的同情心?这是一个值得思考的问题。