隐藏真实目的的机器人

时间:2023-11-21 00:49:02

布莱恩·克努森(Brian Knutson):斯坦福大学心理学和神经科学副教授

隐藏真实目的的机器人

为什么人们应该关注会思考的机器(或者任何能思考的东西)?一个切入点可能是,将其他东西,而不是将机器人视作智能体。即使有时存在时间和空间的差异,机器人都会按照其创造者的命令行动。因此,如果机器人胡作非为,创造者会受到责备。然而,智能体按照他们自己的工作日程行动。当智能体胡作非为时,他们自然也会受到责备。

虽然给“智能体”下定义很难,但人们能够自然并且迅速地区分智能体和非智能体,甚至可以利用专门的神经回路来推测他人的感觉和思想。事实上,设计者可以输入与智能体相关的特性(包括物理相似性、对反馈的响应能力以及自主行动),以愚弄人们,使人们认为自己正在与智能体互动。

要让一个实体成为智能体,必须具备哪些条件?尽管有至少三个选择可以表现它们自己,但最流行和最受关注的两种选择可能并非必不可少。

第一,物理相似性。有很多种方法可以让机器看起来像人类,无论是外观还是行为,但是最终只有一个是准确的。仅仅复制软件是不够的,你还需要在底层硬件上实现它,包括所有与它相关的可见功能和局限性。

最早的机器人之一,“德·沃康松的鸭子”(de Vaucanson’s duck)外形酷似一只鸭子,甚至连消化系统都十分相似。虽然它可能看上去像鸭子,可以像鸭子一样嘎嘎叫,甚至像鸭子一样排泄,但它仍然不是鸭子。然而,最大限度地提高物理相似性是一种让人误认为是智能体的一种简单方法(至少在初期可以)。

第二,自我意识。很多人担心,如果机器获取了足够的信息,它们便会产生自我意识,然后会去发展它们自己的智能体意识,但没有逻辑和证据可以支持这些推断。尽管机器人似乎已经被训练过在镜子中辨认自己、感受自己肢体的位置,但这些自我意识的陷阱没有导致它们反抗试验或者改造失效。或许传达一种自我意识的感觉会引起其他人推测机器人可能有更高级的智能体(至少会让学者们感到愉悦),但单独的自我意识对于智能体来讲似乎并非必不可少。

第三,自我利益。人类不仅仅只是信息处理器,也是生存处理器。他们更喜欢对有利于自己延续和繁衍的信息进行关注并采取行动。因此,人类会基于自我利益来处理信息。自我利益可以提供一个统一但开放的架构,将几乎所有的输入进行优先级排序和处理。

由于高明的进化伎俩,人类甚至不需要知道自己的目标,因为中间状态,例如情感,可以代替自我利益。拥有了自我利益,以及能够灵活调整的反应能力以应对不断变化的机会和威胁,机器可能会发展智能体。因此,自我利益能够提供关于智能体的必要组成部分,也能够从他人身上引发自己身为智能体的推断。

自我利益能够将世界上运行的机器从机器人变成智能体。自我利益也将翻转阿西莫夫的机器人三定律的排序(内容不变)。

◎第一定律,机器人不得伤害人类,或坐视人类受到伤害;

◎第二定律,除非违背第一法则,机器人必须服从人类的命令;

◎第三定律,在不违背第一及第二定律的情况下,机器人必须保护自己。

一个利己主义的机器人会在帮助人类或避免人类受到伤害之前首先保护自己。这样,构建一个利己主义至上的机器人似乎很简单:赋予它生存和繁衍的目标,并激励它不断去践行自己学到的东西。

然而,我们应该在构建利己主义的机器人之前思考再三。利己主义会与其他人的利益发生冲突。我们都见证了简单的、以生存为驱动力的病毒造成的巨大破坏性。如果利己主义的机器人确实存在,我们必须三思而后行。它们的存在将引发一个基本的问题:这些机器人应该有自我利益吗?它们应该被允许奉行利己主义吗?它们应该在不了解自己为什么这么做的情况下做利己的事吗?

我们不是已经拥有了足够多的这种机器人了吗?