如果机器自己进化出情绪怎么办?-情感密码

时间:2023-12-04 11:39:02

如果机器自己进化出情绪怎么办?

目前为止,我们所讨论的情绪机器的潜在用途都是非常实用的。这没有问题,但我认为未来大多数情绪机器并非用于任何实用的目的,而是纯粹用于娱乐。如果你想展望一下情感计算技术的未来,不要去想宇宙飞船和智能服装——想一想玩具和视频游戏。

如果机器自己进化出情绪怎么办?-情感密码

目前,许多视频游戏已经开始使用一些简单的学习玩家操作的算法来控制计算机控制的角色,如怪物和恶人。例如,在游戏《古墓丽影》中,劳拉·克罗夫特(Lara Croft)的敌人只需要让你打几枪就可以知道你的射击风格。如果你在暗中伺机袭击恐龙,它可能会呆在阴影里,引诱你出来打一枪,这样它就可以轻而易举地袭击你。虽然这些只是相对简单的程序,但是随着我们对更高级的游戏的需求在不断增加,软件也在不断升级。第一批真正的情感电脑很可能是游戏机控制台,而不是空间飞行器。

其他具有初级情绪的娱乐软件也可以用于电脑里的虚拟宠物。许多孩子现在把狗和猫作为屏幕宠物,近期还出现了虚拟婴儿。一个名为“模拟人生”的程序可以让你自己创造人物,但这些人很快就会有自己的生活,让人惊叹不已。“模拟人生”中的人物有种种酷似人类的情绪行为。他们会生气、会抑郁、甚至会相爱。

这些生物都是虚拟的——它们生活在电脑中,唯一的“身体”就是屏幕上的画面。然而,第一个有着实实在在的身体的电脑生物已经进入了玩具市场,它们也有一些最初级的情感。首先上市的是名叫“福比”的小毛绒机器人,它困的时候会睡觉,如果长时间被冷落还会发出抗议的哭声。现在还有机器狗和机器猫,它们可以在你的起居室里跑来跑去而不会弄得一团糟。

就像对“克斯梅特”一样,人们对这些人工生物也有着自然的同情反应。人们并不会满腹疑问,怀疑这些情绪是“真”是“假”。人们只是愿意和它们玩耍,就像对一个真正的宠物或婴儿一样。一种有硅脑和橡胶脸的娃娃甚至会在饥饿时皱起脸,露出悲伤的表情。

科学幻想和科学事实之间的鸿沟正在缩校今天的计算机和机器人虽然远远没有哈尔那样高级,但它们已经有了很大进步。事实上,由于技术的飞速发展,有人已经开始担心:如果电脑和机器人进化出人类的情感该怎么办。它们会像哈尔那样与它们的制造者反目成仇吗?在影片《终结者》中,一个叫“天网”的巨型电脑具有自我意识,为了阻止人类将其关闭,它企图进入军队的指挥系统并发射核导弹。情感计算技术会不会最终导致人机大战?如果会的话,谁将是赢家呢?也许未来机器人将不再是我们的玩具——我们可能会成为它们的玩具。

给电脑编程也许可以使它们服从于我们,从而避免这一悲剧。例如,我们可以通过编程使它们服从“机器人三法则”,就像艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《二百岁的人》中所提议的那样,同名电影就是受到了该小说的启发(见下框)。

然而,许多情绪的一个重要特点就是它们是不可预测的。一个真正的情感机器人可能会不遵守或是重新解释这些法则。另外,人们近来越来越尊重动物权利,部分原因是人们认识到:非人类动物与人类一样能感受到痛苦和情感,由此可以预见,未来人们会越来越注重机器人权利的保护。正如有些人准备用暴力手段来保护动物权利一样,有些人可能会和受压迫的机器人联合起来,帮助它们从被奴役的状态中解放出来。

机器人三法则

1.机器人不能伤害人类,不能通过不作为来使人类受到伤害。

2.机器人必须遵守人类的命令,除非命令与第一项法则相冲突。

3.机器人必须自我保护,除非这种保护与第一或第二项法则相冲突。

来源:艾萨克·阿西莫夫,《二百岁的人》

许多人可能认为,电脑是可以预测的,因为它们只是按照程序工作。这使人们无法相信电脑有一天也会有情绪。即使我们能设计出高超的软件,使电脑可以模仿情绪行为,那也不是真正的情绪,因为它们只是按照指令去做。电脑不会像真正的情感动物那样不可预测。

但如果计算机程序能够自我进化,这些人又会怎么说呢?这样的机器可能会拥有真正的情绪,而不是由人来设计。计算机科学一个较新的分支——人工生命——就在尝试开发这种自我进化的软件。研究人工生命的计算机科学家并不是自己写程序,而是创制随机指令序列,让这些微型程序(称为进化算法)在电脑硬盘上竞争空间。当前任务完成得较好的程序可以进行自我复制,从而占据更多的存储空间,而任务完成得不好的程序就会被删除。由于复制过程被故意设计成了有缺陷的,因此复制时偶尔会出现错误。这就使变异程序得以出现,有些程序比它们的母本更好地完成了任务,于是成为了硬盘的主宰者。如果这一过程经过多代反复,有益的变异品种就能得以积累,形成人类用常规方法无法设计出的超强程序。

你可能注意到,人工生命与自然选择的进化非常相像。事实上,它就是自然选择的进化。它具备自然选择所有的因素:遗传(自我复制)、变异(复制品并不完美)、差异复制(一些程序比其他程序有更多的复制品)。这些自我进化程序的术语——“进化算法”——清楚地表明它与DNA进化的相似性。虽然这一过程中的主角是硬盘上的编码序列而不是染色体上的核苷酸序列,但这并不能否认人工生命可以进化。因为电脑没有脑器官就否认它具有情绪是一种狭隘的看法,同样,仅仅因为电脑没有DNA就认为它不能进化也是一种偏狭的观点。不管是情绪、进化,还是生命本身,所有这些生理过程的本质并不在于它们的物质构成,而在于这些物质是如何表现的。只要程序可以自我复制——有些程序可能并不完美,只要复制品的数量取决于该程序本身的某个特点,这个程序就完全可以说是通过自然选择而进化的。

人工生命中最著名的实验之一是一个名为Tierra(西班牙语,意为地球)的虚拟世界的创建。Tierra由计算机科学家托马斯·雷(Thomas Ray)设计,最初这一虚拟世界里只有一些单一程序的复制品。正如刚才所描述的,这一程序可以自我复制,它是一种“进化算法”。但是这些复制品并不都是完美的,因此,随着时间的推移,Tierra中的数字生命越来越多样化。当雷在观察他的虚拟生物圈的进化时,他发现了从未见过的生命形式,其中包括虚拟病毒和形成了人工免疫系统以保卫自己的虚拟宿主,他万分激动。这些人工生命形式还没有获得情绪,但是不难看出,如果时间充足,它们会进化出这些能力。由于设计过程中的随机因素,这种人工情绪将会很难预测。

有人认为机器不会有情绪,他们的理由是真正的情绪是不可预测的,而人工生命技术可能会改变这些人的观点。当然,这一技术可能还无法和否定情绪机器的最极端顽固的观点对抗。这一观点认为电脑永远不会有真正的情绪,因为它们不可能有意识。虽然电脑可能会表现出情绪行为,但它们永远不会有主观感觉,这种感觉构成了情绪的本质。

正如前面提到的,许多人认为感觉是情绪的根本,但多数当代研究情绪的科学家和哲学家不赞成这一观点。根据现代科学的观点,就像不能仅仅因为瘫痪病人不能表现出相关面部表情就否认他有情绪一样,我们也不能仅仅因为电脑没有意识情感就否认它有情绪。

另外,声称电脑永远不会有意识只不过是一种直觉。有人提出一些似是而非的论据来支持这一观点,但是这些思维实验(包括中文屋和怪人)比它们所反对的观点更加离谱(见下框)。事实上,在21世纪初,没有人真正了解什么是真正的意识。由于对意识没有很好的定义,对怎样研究也缺乏共识,因此对所有认为不可能有意识机器从而否认情感计算技术的观点我们一定要有所保留。

计算机未来会有意识吗?

一些人工智能的研究者认为,在今后的100年内,计算机将会有意识。有些哲学家认为这是荒谬的。他们认为机器永远不会有意识。为了支持这一观点,他们设计了一些奇怪的思维实验。

在一篇现已成为经典的关于思维的哲学论文中,约翰·塞尔(John Searle)提出了“中文屋”这一概念。一个男人坐在一个房间里,人们给了他一系列中文字符并告诉他一些规则,使他知道该如何对这些中文字符作出反应,他都照做了。房间外面的人以为这个人懂中文,但我们知道他不懂。他只是按照规则做。塞尔认为计算机也是这样,它们只能遵守规则,永远不会“知道”任何事情。因此,塞尔认为计算机永远都不会有意识。

另外一位哲学家——大卫·查默斯(David Chalmers)认为,意识不是仅通过行为就可以表现出来的。他让我们想象一个怪人,它外表酷似人类,唯独没有意识。如果这种生物存在的话,那么电脑就不可能有意识,不论它看起来多么像有意识的生物。

这些思维实验的问题套用一句话来说就是:想法太多,实验不足。我们不应该根据一些荒唐的故事来断定计算机是否会有意识,因为这些故事中的事我们了解得更少——比如中文屋和怪人,进行更多实验可能会对我们更有帮助。总而言之,真正使我们知道机器是否会有意识的唯一方法就是尝试制造一个有意识的机器。

在为数不多的几个较贴切的意识定义中,有一个已经在一定程度上得到了认可。这种定义认为,主观情感主要取决于身体类型。这可能意味着Tierra中的数字生物永远不会有意识,因为它们是虚拟的,只是计算机硬盘上的编码序列。然而,在最近,计算机科学家开始将人工生命的技术扩展到真正有实体的电脑上。这一新兴学科称为进化机器学。与人工生命一样,它的原理也是让控制机器人的程序自己进化,而不是由人类来设计。如果Tierra中的生物不可能有意识,这种被赋予形体的程序也许就会有意识。

如果情绪对于任何半智能生物的生存都很关键的话——如我在第二章中提出的观点——我们会看到这些复杂的机器人像高等生物那样自己进化出情绪。如果让机器人自行发展,它们可能会进化出与人类非常不同的情绪。生命存续所需的情绪在很大程度上取决于生物的生活方式和生存环境。如果这一生物的存在基本上是静态的,它就不需要社会情绪,如内疚和嫉妒。如果没有捕猎者的追捕,它可能就不需要害怕这一情绪。鉴于机器人与人类在生活方式和生存环境上的差异,它们可能会进化出截然不同的情绪。

即使机器人的情绪在表面上与人类情绪相同,机器人对它们的感觉也可能大相径庭。如果意识和身体构成之间确实有紧密的联系,对于情绪的主观感受就可能取决于生理细节。那么我们几乎可以肯定,有着塑料或金属躯体的情感机器人和有着血肉之躯、七情六欲的人类一定有着极为不同的内在感觉。由于同情就是感同身受,因此机器人和人类不同的生理状态可能很难让我们同情他们,即使它们表现出的行为与人类极其相似。更危险的是,也许机器人同样很难同情我们。未来人机大战的噩梦似乎正在向我们逼近。

也许我们对于未来人机争霸的恐惧是一个错误。进化出情绪的复杂机器人可能会成为我们的朋友而不是敌人。《二百岁的人》和《银翼杀手》表现的都是人类与机器人的彼此相爱。

在日本,这种机器人的友善形象比在西方更普遍。在不远的将来,几乎注定要出现的情感机器可能还会成为我们的救星,通过教育我们学习它们更细腻的感受力来使我们不再对它们抱有敌意。