现在,为什么要致力于开发人工智能?

时间:2023-11-29 15:39:03

在我看来,目前的人工智能发展,主要有赖于三大要素的互相作用。

第一个要素,就是大数据。

现在,为什么要致力于开发人工智能?

人工智能通过大量数据来进行学习,数据越多,就越强大。例如IBM公司在1997年开发的国际象棋程序“深蓝”,它曾在这一年的系列比赛中打败了当时的世界冠军、俄罗斯的加里·卡斯帕罗夫(Garry Kasparov)。

当时,“深蓝”搭载了100万局以上的棋谱数据,每秒钟可以计算2亿步。20年前的程序虽然还没有如今的程序这样简洁,但是利用过去的对局信息与强大的计算能力,“深蓝”以“推土机式”的战法战胜了人类。

第二个要素,是硬件的发展。

十多年前,公立函馆未来大学研究人工智能的学者松原仁教授曾说过:“硬件如果进步了,将棋软件就会自动变强。”因为,硬件的进步会使电脑的计算能力达到每秒百万步甚至亿步,软件自然也就变强了。

这个认知基于英特尔公司的创始人之一戈登·摩尔(Gordon Moore)提出的“摩尔定律”。这一定律是关于电脑发展进步的经验法则,根据这一定律,在空间不变的情况下,集成电路的密度一年半增加一倍,所以电脑的计算速度也会以指数级急速增加。

第一次听到这个说法的时候,我只是漫不经心地觉得“原来是这样”,并没有放在心上。然而最近在将棋界,电王战越来越受到人们关注。看到将棋软件的显著进步,这个说法对我来说才有了更切身的感受。

举例来说,AlphaGo在与人对弈时所使用的机器的计算能力并不是特别厉害的。然而,AlphaGo在学习阶段使用的是DeepMind的母公司谷歌的巨大计算资源,并依靠这些资源快速积累了大量的数据。

AlphaGo的胜利,要归功于能够处理庞大数据的软件和支撑了该软件运行的硬件技术。可以说,如果没有称霸世界的超大规模IT企业谷歌的支撑,就不会有AlphaGo的成功。

除了大数据和硬件的发展,还有第三个要素,那就是“软件”部分的发展,特别是深度学习(deep learning)的兴起。

听说过深度学习这个词的人恐怕不少。近来,人工智能引起了越来越多的关注,主要就是因为深度学习。

在由被称为神经式网络(neural network)的模拟人脑学习方法构成的人工智能算法中,它是最近最受瞩目的部分。人类的神经细胞通过电子信号互相传递信息,而信息传递的结合部,被称为突触。将这种由突触结合来表达知识的原理通过数学建模,就构成了神经式网络。

这其中最令我感兴趣的,是所谓的误差反向传播算法,因为这种算法通过删除回答错误的神经细胞来修正答案。

用我的理解来对这个算法打个比方:

如果每一个神经细胞都是一个人,在一起进行传话游戏。第一个人得到的信息是“猫就是长成这样的生物”,就像传话游戏一样,每一个神经细胞都向自己周围的其他神经细胞传递这个信息,这样一来,终端就会知道“猫原来是这样的啊”。

那么,如果要传一句“今天外出去新宿公干”,这句话如果只经过两三个人的传递,应该是可以准确地传达给终端的。但是,如果通过50个人来传递这句话,会得到怎样的结果呢?

从第一个人开始,在若干次的传话之后,内容很可能在不知不觉中变成了“明天去日本桥的百货店买东西”这类与最初的信息毫不相干的东西。为什么会变成这样呢?往往是因为传话的过程中出现了不可信的人,夹杂了乌七八糟的信息。

那么,要怎么解决这个问题呢?拿将棋的学习来说,在将棋学习中,最重要的并不是记住更多的东西,而是让自己舍弃多余的思考。同理,在玩传话游戏的时候,就要把这种乱传话的糊涂蛋从游戏中抽离出去。之后再重新开始游戏,就可以正确地向终端传递信息了。

具体来说就是这样的:传话过程中,如果与A相邻的B告诉A“今天要去新宿公干”,而与A相邻的C又对A说“明天要去日本桥的百货店买东西”。这时候根据“传话游戏”的结果,首先应该认为C是不可信的,降低对C的信任度。

这样重复几次之后,哪个人传的话更值得信任就很明确了。在我看来,这就是误差反向传播算法的本质。

我以前经常在将棋的书里提到,减少处理无用信息的“减法”思考,是人脑思考的特征。而深度学习中竟然含有这种“减法”思考的要素,这实在是让我觉得很有意思。