有自我意识的人工智能?再过1000年都不会出现!

时间:2024-06-27 09:53:03

罗尔夫·多贝里(Rolf Dobelli):Zurich Minds非营利基金会创始人;新闻工作者;著有《清醒思考的艺术》(The Art of Thinking Clearly)

有自我意识的人工智能?再过1000年都不会出现!

在我看来,对人工智能会威胁人类并接管世界的普遍担忧是荒谬的,理由如下。从概念上看,自动化或人工智能系统会朝两个方向发展:一是作为人类思维的延伸,二是完全成为一种新思维。我们把前者叫作“类人思维”(Humanoid Thinking)或类人智能(Humanoid AI),把后者叫作“外星思维”(Alien Thinking)或“外星智能”(Alien AI)。

当下,几乎所有的人工智能都是类人智能。我们利用人工智能来解决那些对人类而言太困难、耗时长或太枯燥的问题,例如电网平衡、搜索引擎、自动驾驶汽车、人脸识别、交易算法等。这些智能体在其人类创造者设定好明确目标的狭窄领域内,可以高效地工作。这些人工智能的使命就是完成人类的目标,它们的特点是高效、犯错少、不分心、没有坏脾气,而且只拥有有限的权限。在未来20年,智能体还可能扮演虚拟保险销售员、医生、心理治疗师,甚至虚拟配偶或子女等角色。

不过,这些智能体只是我们的奴隶,它们本身没有“自我”的概念。它们会很顺畅地执行我们预先设定的功能。如果真的出现了糟糕的情况,那也只能是我们自己的原因,比如是我们设计的软件有缺陷或我们对这些智能体太信任了(丹尼尔·丹尼特的观点)。类人智能或许会在具体的最优化问题上,提出一些令人意外的新颖解决方案,但在大多数情况下,我们并不寄希望于人工智能给出的新颖方案。(有谁想要它们发明的核弹导航创新技术?)也就是说,类人智能只适合在狭窄的领域内提出解决方案。无论是方案的最终结果还是其内在原理,都要便于理解。有时候,由于不断地修补漏洞,一些代码会变得太过庞大,无法理解。对此,我们只需要把它们关闭,编制一个更加简洁的版本来替换它。类人智能的发展,让我们更接近过去的愿望:让机器人来做大部分工作,而我们有更多的自由来从事创造性工作,或者娱乐至死。

外星智能则截然不同。我们有理由相信,它对类人智能而言,是一种威胁。它有可能掌控地球,比我们更聪明、更快速,甚至奴役我们。而我们甚至无法发现它们的攻击。外星智能会是什么样?我们无法定义,它所包含的功能是我们完全无法理解的。它是否有意识?很有可能,但也未必。它能体验情感吗?会写畅销书吗?如果会,它的读者会是人类还是它的同类?认知错误是否会摧毁它的思维?它会社交吗?它有属于自己的心理理论吗?如果有,它会开玩笑或闲聊吗?会重视自己的名誉吗?它会团结在某个旗帜周围吗?它会发展出自己版本的人工智能(人工智能的人工智能)吗?这些都是我们无法回答的。

我们所能回答的是:人类无法构建出真正的外星智能,因为任何由人类创造的东西都折射了我们的目标和价值观,因此,它不会远离人类的思维。只有真正的进化,而不仅仅是算法的进化,才能出现拥有自我意识的外星智能。这需要一条与人类智能和类人智能截然不同的进化路径。

那么,如何才能实现真正的进化?需要三个条件:复制、变异、选择。一旦三者都就位,进化自然而然会出现。那么,进化出外星智能的可能性有多大呢?让我们做个粗略的计算。

首先,我们要考虑从复杂的真核细胞到人类水平的思维需要哪些因素。人类思维的出现,需要地球上过去20亿年中绝大多数生物的参与(大约5 000亿吨真核固碳)。这是一项浩大的进化工作。当然,人类水平的思维也有可能只需一半的时间就可以出现,如果运气好的话,甚至能在1/10的时间内就会出现,但是时间要再短的话,就不行了。因为我们不仅需要大量的时间来进化出足够复杂的行为,还需要犹如地球表面大小的培养皿来支撑这种级别的实验。

假设外星智能与当前所有的人工智能一样是硅基的。而一个真核细胞要远比英特尔最新的i7处理器的芯片更加复杂——无论是软件还是硬件。进一步假设,你能把CPU芯片缩小到真核细胞的大小,即便不考虑量子效应会妨碍晶体管的正常工作,也不考虑能源问题,那你也需要给地球表面铺上10块微型CPU,并让它们相互通信,然后再经过20亿年的进化,才能诞生出思想。

CPU的处理速度确实要比生物细胞更快,因为电子比原子更容易穿梭。真核细胞能够多线程运作,而英特尔i7处理器最多只有4个线程。最终,要想统治世界,这些电子还需搬运原子,以便在更多的地方来存储其软件和数据。这将急剧降低它们的进化速度。因此,很难说硅基生命的进化速度能比生物更快。虽然我们对智能体们的了解还不够,但也找不出任何理由,可以让它们的进化速度比生物进化快两三个数量级,以让具有自我意识的外星智能在100万年内出现。

如果类人智能强大到能够创造出外星智能该怎么办?那就要引用生物学家莱斯利·奥格尔(Leslie Orgel)提出的第二定律了:“进化要比你想象的更聪明。”它比人类智能更聪明,甚至比类人智能更聪明。但进化的速度却比你想象的还要慢。

因此,人工智能的危险不在于其内在属性,而在于我们对它们过度依赖了。人工智能在我们的有生之年都不可能进化出自觉意识。事实上,在未来1 000年内也不可能。当然,我也许是错的。毕竟,现在我也只是在用传统的人类思维来想象我们所无法理解的外星智能。但我们现阶段能做的也只有这些。

法国作家塞缪尔·贝克特(Samuel Beckett)在20世纪30年代末写道:“我们不得不接受这个事实,即理性并非属于超人的天赋,它是进化而来的。但是,它同样可以进化成其他样子。”把这段话中的“理性”替换为“人工智能”,就是我的观点了。