在第二章的开头我们曾提到,对于人工智能机器人来说,在不熟悉的人家里泡咖啡是一件很难的事。
实际上,这种情况被称为人工智能开发的悖论,是一个非常重要且难以解决的课题。
这就是所谓的框架问题。
美国哲学家、认知科学家丹尼尔·丹尼特(Daniel Clement Dennett),曾对框架问题进行过一个简单易懂的举例说明。他的说明如下:
请想象这样一种情况——在某个房间内放着可以为机器人提供动力的备用电池,在那个电池上放置了一枚定时炸弹。在这样一个状态下,人类让机器人把电池从房间里搬出来。
第一个进入房间的机器人1号按照命令把电池搬了出来。它虽然注意到电池上有一枚炸弹,却没有意识到把电池从房间里搬出来,就会把上面的炸弹也搬出来这个理所当然的事实。结果,它由于爆炸而被炸毁了。
也就是说,机器人1号虽然理解“搬出电池”这个目的,却不能理解,伴随着这个动作是会产生副作用的——炸弹也会随着电池一起被搬出来。
于是以此为鉴,人类开发了能够考虑到伴随事件的机器人2号。这样的机器人应该能够理解,如果直接把载有炸弹的电池拿出来,炸弹也会被一起拿出了吧?
然而这一次,机器人2号根本没能从房间里走出来,定时炸弹就爆炸了。
机器人2号在电池面前,由于没完没了地考虑“拉动装有电池的小推车,车轮真的会转动吗?”“把小推车弄出去的话,墙壁的颜色是否会改变?”这类琐碎的问题,以至于耗尽了时间。也就是说,这一次机器人考虑了很多没有意义的问题,把所有可能发生的副作用都想了个遍。
于是,人类又制造出了只考虑与炸弹、电池有关的问题的机器人3号,这总没问题了吧?结果,机器人站在房间门前一直不肯进去,最后炸弹还是爆炸了。
因为围绕着“我现在正在考虑的这件事,究竟与炸弹和电池有没有关系”这个问题,机器人3号也对无数的可能性进行了无休无止的思考。