不过,我们可以因此认为,这些人工智能已经真正理解了语言吗?实际上,这还真是个难题。毕竟,所谓的理解究竟是指什么呢?就像羽生先生所举的中文房间这个例子一样,要客观地评价理解与否,是非常困难的一件事。
在以考入东京大学为目标,开发人工智能的“东萝卜君”计划中,人们对人工智能的理解能力,是以高考为基准进行评估的。
令该项目组头疼的也是理解该如何定义的问题。如果说我们人类将互相明白对方的意思的情况称为理解,那么这个理解是很难客观说明的。而这种含糊不清的情况对于项目组来说可是个大麻烦。
在采访项目组组长新井纪子的时候,她曾聊到,如何用数学的方法来表达“整合和理解对方的意图”这件事,是特别困难的。这给我留下了很深的印象。
比方说,我们看到一幅球从坡上滚下来的图。画在坡中间部分的球与滚下坡之后的球是同一个球,于是我们或是通过问题的主旨来推测,或是参考自己以往的经验,马上就能理解这张图是把不同时间点的球的不同位置合成在了一起。
然而,人工智能就不是这样分析的了。为了让人工智能能够思考这幅图的目的是什么,要如何判断,就要先用数学来描述这幅图才行。我们习以为常的理解,实际上是一种具有高难度的行为。
我们自己每天都在通过文字或对话来理解对方的意图。我们之所以认为自己已经理解对方,应该是认为互相之间已经“条清理顺,意见一致”了。可是,我们究竟凭什么说双方已经达成真正的理解了呢?从现状来看,理解是很难用道理来说明的。
今后,随着我们自身“对理解的理解”逐步加深,人工智能在通用性方面也许就可以更上一层楼了。