汤姆·格里菲斯(Tom Griffths):加州大学伯克利分校心理学副教授;计算认知科学实验室主任,认知与脑科学研究所主任
人工智能领域的许多进步开始被最近的新闻报道,其中便提到了人工神经网络。人工神经网络是由简单的元素通过复杂的方法互相影响而组成的大型系统,灵感来源于简单的神经元和复杂的大脑。构建拥有多层神经元的“深度”网络的新方法已经被用于解决例如语音理解、图像识别、语言翻译之类的问题,达到或超越了传统问题解决方式的水平。对于任何对人工智能和自然智能感兴趣的人来讲,这些成功引发了两个问题:第一,所有的思维机器都类似于大脑吗?第二,通过探索人工智能,我们对真实的大脑(和心智)有什么新认识?
当一个人试图去解释数据时,无论是理解一个词语的意义,还是理解同事的行动意图,通常都有两种原因会引发错误:一是被固有的观念影响太深;二是被数据影响太深。当你猜想一种新语言中的词语的意义时,固有的观念会使你自然而然地推断该词语与你已知语言中词语的意义相同。例如,断定法语中的“gateau”(法语和英语都意为“奶油蛋糕”),以及西班牙语中“gato”(西班牙语和英语都意为“猫”)的词义与各自在英文中的词义相同(对于宠物或生日派对,两者都可能导致可怕的后果)。当你认定你的同事讨厌你自己的想法时,你可能是太受数据的影响了,实际上他只是因为整晚都在陪生病的孩子才导致的坏脾气(他没对你做任何事情)。
计算机在解释数据(即从它们的输入中学习)时也遇到了相同的问题。许多机器学习的研究归结于架构与灵活性之间的基本约束关系。更多的架构意味着更多的固有观念,这对于解释有限的数据是有帮助的,但结果会有偏差,因而性能会被降低。更多的灵活性意味着数据捕捉模式的能力更强,但发现错误模式的风险也会更大。
在人工智能研究中,架构与灵活性之间的约束关系体现在不同类型的系统中,以用于解决很多富有挑战性的问题,例如语音识别、计算机视觉、机器翻译。几十年来,在这些问题上表现得最好的系统都倾向于架构方:它们是几代工程师们精心计划、设计、调整的结果。这些工程师们研究语音、图像、语法的特征,猜想如何解读这些特殊种类的数据,并试图把最合理的猜想建立成系统。最近,利用人工神经网络所取得的突破坚决地倾向于灵活性的一方:它们使用一套同样可以应用于许多不同种类数据的准则,这意味着它们对于任何特殊种类的数据几乎都没有固有观念,而且还会允许系统去探索如何理解它的输入。
如今,人工神经网络在探索语音、图像、语句方面无疑比先前几代工程师设计的智能机器表现得更好。这是它们性能高超的关键之处。灵活性对于架构的胜利,一方面是创新的结果,它使得我们可以建造更大规模的人工神经网络,并且可以更快速地训练它;另一方面也是因为提供给这些神经网络的数据量增加的结果。我们比以前拥有更多记录的语音、更多标记的图像、更多不同语言的文档,可用数据量的改变打破了架构与灵活性之间的平衡。
当你没有海量数据,不得不基于有限的证据进行推测的时候,架构更重要。天才工程师的指导会帮助计算机理智地进行推测。但当你拥有大量数据时,灵活性更重要。如果有足够的数据允许计算机想出更好的主意,你当然不希望自己的系统被限制在那些工程师的想法中。因此,机器学习系统与人工神经网络一样强调灵活性,当需要学习的场合有大量可用的数据时,它解决此类问题将是最成功的。
更多的数据促成了更大的灵活性,这种见解为关于人工智能和大脑的两个问题提供了答案。首先,思维机器应该与大脑类似(在人工神经网络的范围内与大脑类似),在解决问题时,灵活性胜过架构的地方,数据必然丰富。其次,沿着这些思路进行思考,也有助于理解什么时候人脑将与人工神经网络类似。也就是说,对于从哪个角度理解人类心智是最好的问题,一般目的学习算法强调灵活性胜过架构,它反对建立在固有的世界观之上的理解。从根本上讲,决定问题答案的因素是可用的数据量以及需要学习的内容的复杂度。
认知科学领域的许多伟大辩论,例如儿童如何学习语言,如何去理解其他人的行为,都要归结为可用的数据和可获取的知识。为了解决这些问题,我们尝试将输入映射到系统中(儿童们的所见所闻),描述结果的特征(语言是什么、什么知识会引起社会认知),并且探索能够在二者之间架起桥梁的不同种类的算法。
这些问题的答案不仅与理解人类心智有关。尽管人工智能最近有了新进展,但人类仍然是我们所拥有的关于思维机器的最好的例子。通过确定数据量与先天固有观念如何影响人类认知,我们能够为使计算机更接近人类性能的工作打下基础。