安东尼·阿吉雷(Anthony Aguirre):加州大学圣克鲁兹分校物理学家
我并不看好通用智能近期的前景。我所说的通用智能是指人工智能可以基于经验制定抽象概念,利用那些概念进行思考和计划,并基于这些结果行动。我们恰恰有一个这种技术水平的智能产生,实现的方法是通过数以百万计的一代又一代进化的信息处理智能体,与其他在难以置信的丰富环境中经过了类似进化的智能体和架构的相互作用。
我认为,这涉及许多错综复杂的相互作用,分层的组织层次,从神经元到大脑都必须作为一个整体。在智能体中复制这种进化效果所需要的计算量并不比进化所需要的计算量小很多,这将远远超出我们数十年内所具备的能力,即便是在假定计算效率按照摩尔定律呈指数级增长,并且我们已经知道如何正确利用那些计算的前提下。
我认为通用智能有1%的概率在未来10年中出现,有10%的概率在接下来的30年中出现(这基本上反映了我的分析是错误的,人工智能专家倾向于把这些概率设定得更高,他们给出的数字更具有代表性)。
另一方面,如果创造出了通用智能(特别是如果它们较快速地出现),用一个词来形容它,就是“疯狂”,我认为出现这种情况的概率很高。人类的思维是极其复杂的,但在各种极具挑战性的环境中历经亿万年的进化之后,已经久经考验,并趋于(相对)稳定的状态。可见,第一个通用智能不可能以这种方法磨炼出来。与人类系统类似,研究人员通过把人工智能组件(如视觉领域、文字处理、符号操纵、优化算法等)拼凑在一起,伴随着目前并不存在的能够更高效地学习、概念抽象、制定决策的系统,狭义的人工智能可能会变得更强。
鉴于该领域的发展趋势,上述许多可能是相对不透明的深度学习或类似的系统,它们有效但多少有些不可思议。在第一个系统中,我认为这些只是勉强能在一起工作。所以我认为,初期通用智能可以做我们想要它们做的事情的可能性是很小的。
如此说来,通用智能会迅速导致超级智能的出现是一个棘手的问题。通用人工智能本质上意味着超级智能已经成为新的共识。虽然我大体上同意,但我想补充说明,它的发展可能会在接近人类的水平时停滞一段时间,直到我们开发出一些认知稳定的智能;而通用智能,即便多少有些不稳定,仍然需要有足够强大的功能来提高自身的智能。
然而,这两种情况都不令人振奋。超级智能可能会在各方面存在缺陷,即便在它很擅长的事情上也是如此。这种直觉可能并未远离超级智能犯下各种严重错误(带着我们一起)的场景,往往是因为缺乏我们所谓的常识。但这种常识是我们建立稳定性的部分标签,是进化和社会生态系统的一部分。
所以,即使是通用智能也还有很长的路要走,如果我们实现了它,在默认条件下会发生什么事情,我对此很悲观。我希望自己是错的,但时间会告诉我们。(我认为我们不应该停止研发通用智能,它会为人类做很多事情。)
与此同时,我希望在通往通用智能的路上,研究人员会提出很多想法,可以大幅降低当我们实现通用智能时情况变坏的概率。在这个舞台上,赌注是潜在的令人难以置信的高。当我听到“我认为X是将会发生的事情,所以我不会担忧Y”的时候,我会很沮丧。只要你坚信X发生的概率很高,并且Y并不是无比重要的事情时,这通常是一个很好的思维方式。但当你谈论可以从根本上决定人类未来(或人类未来的存在)的事情时,75%的自信并不够——90%,甚至99%也不够!如果大型强子对撞机有1%(更不必说10%)的概率会产生吞噬这个世界的黑洞,那么我们永远都不会建造它。相反,它有100%令人信服的论据反对这个观点。让我们看看那些不必担忧通用智能存在的令人信服的理由,如果没有,那么让我们自己去想。