那些像机器一样思考的人,才更可怕

时间:2023-11-21 02:49:04

哈伊姆·哈拉里(Haim Harari):物理学家;魏茨曼科学研究所前主席;著有《来自风暴之眼的观察》(A View from the Eye of the Storm)

那些像机器一样思考的人,才更可怕

我们所说的“会思考的机器”,其实是指“能像人类那样思考的机器”。显然,机器在很多方面的表现展示了它的智能,例如,触发事件、处理任务、决策制定、作出选择,当然,它们还能执行很多其他(但不是所有)形式的思考。但真正的问题在于:我们并不能通过这些就确定机器能否像人类那样思考。正如老套的人工智能测试所表明的那样,仅仅通过观察思考的结果,我们无法分辨出思考的主体到底是机器还是人类。

一些杰出的科学家担忧我们的世界会被思维机器所统治。我不确定这样的担忧是否合理。其实更让我担忧的是由一群像机器一样思考的人所控制的世界,这是人类数字社会的一个主要发展趋势。

按照人们事先给定的算法,机器能符合逻辑地一步步执行一系列操作。在这类事务上,机器比任何人都做得更快也更精准。只要给定已知的基本假设或公理,思维机器便能轻松地进行各种纯逻辑运算。然而到目前为止,在决策制定中调用常识、问一些有意义的问题,还是人类独有的天赋。人类能通过综合直觉、情感、移情作用、经验和文化背景来提出相关问题;能在表面看来互不相关的事实之间、原则之间找到联系,从而得出结论。迄今为止,以上这些都还只是人类独有的能力,机器尚未具备。

人类社会正迅速朝着规则化、体制化、政治教条化的方向发展,而且在只顾及逻辑而没有考虑到出发点是否合理的基础上,人的行为模式也越来越趋于程式化。宗教极端主义就是在错误的基础上合理地发展出来的,显然,这是一种反人道的意识形态。对僵硬教条情有独钟的机构和媒体,喜欢夸大法律、会计、数学和技术的某些方面的特质(例如这些学科的逻辑严密性),而这常常会引出像“完全透明”这种实际上模糊不清的概念,并常常会导致一些逻辑上可行但实际上并不能容忍的行为。这些(以及类似的)趋势,使得我们更加偏向于使用算术和逻辑的模式去处理问题,但这是以牺牲常识为代价的。如果常识——不管它的准确定义如何,它代表了人类思考相比于机器思考的优越之处,那么从上文我们已经清楚地看到,人类正日益失去这一宝贵的财富。

有两种方式能够减小机器思考和人类思考之间的差异,当人们开始变得像机器那样思考时,自然而然,我们就达到了“机器能像人一样思考”的目标,但显然,这样一种实现方式与我们的初衷是相悖的。一个非常聪明的人,能够从短短的一两句话里,或是在很短时间内从大量的邮件、文本信息和推特(暂不说其他一些社交软件)上获取信息,从而得出相应的结论,但在处理与之类似的任务中,一台中等智能的机器的表现丝毫不逊色于这个人。例如,它也能通过事先分析大量的相关材料,来避免得出不成熟的结论,或是决定是否在一个它不熟悉的有关某一主题的请愿书上签字。

这一趋势的实例能轻松列举出很多。公众一般都支持这样的法律:对于有特殊需要的人来说,每一幢新房子都是可入住的,但旧房子必须在翻新后才可入住(为保障安全)。但是,仅因一台新电梯未能安装,就不允许通过翻新老旧浴室而使得房子可入住,这有意义吗?在法庭上,为了给一个已经杀了上百人的恐怖分子判刑,要求CIA和FBI向公众曝光所有的相关机密文件,这有意义吗?学生在学校里服用阿司匹林之前,先要征得他们父母的同意,这有意义吗?学校课本里要求学生将“英里”转换为“千米”,例如,原话是“站在山顶,你可以看到100英里之外”,学生将其翻译为“你可以看到160.934千米之外”。显然,这样的同义语转换并没有多大的实际意义。

自由民主的神圣不可侵犯的标准,理当包括各种具体形式的自由,如言论自由、出版自由、学术自由、宗教自由、信息自由;还包括许多其他类型的人权,如机会均等、法律面前人人平等以及不受歧视等。我们都支持并维护这些原则,但是单一、极端的逻辑诱导我们不顾常理,认为受害人的权利不是一个值得考虑的问题,这就使得我们认为人也有犯罪和制造恐怖的权利。出版自由和透明在逻辑上要求出版方给出内部头脑风暴的完整报告,因而,这样就可以让一些公共团体不能有任何形式的自由讨论和不成熟的想法了。仅从逻辑的角度出发,学术自由也可能会被误解,无视常理和事实,却用诺亚方舟的神话去解释生物的进化现象,在历史课上否认纳粹大屠杀事件,或者宣扬宇宙是在6 000年前(而不是140亿年前)诞生的。只要你愿意,我还可以举出很多类似的例子,但我们到此为止,因为我想表达的意思已经很清楚了。

算法思维、信息简化和纯逻辑的过度使用,正使得我们的思维方式越来越机器化,而没有让我们放慢脚步去创造性地教我们的机器去学习人类的常识和理智。如果这种情势能够被调转过来,那这将会是人类数字革命中意义深远的一次大转折。