加强人工智能的安全性研究

时间:2024-06-27 08:35:07

扬·塔林(Jann Tallinn):未来生活研究所生存风险研究中心联合创始人;Skype、Kazaa创始工程师

加强人工智能的安全性研究

在第一次核试验的6个月前,“曼哈顿计划”的科学家们做了一个名为LA-602的报告,报告调查分析了核爆炸的副作用,以及它摧毁地球大气层的可能性。这或许是人类历史上首份由科学家作出的“人类是否会因为新科技而灭绝”的分析报告,也是第一份人类生存风险研究。

当然,核技术并非人类发明中的最后一项危险技术。从那以后,灾难性的副作用这个话题,在不同技术上不断出现:基因重组、合成病毒、纳米技术等。幸运的是,我们通过一系列清醒的分析,制定了条款和协议来规范这些技术的研究。

所以,当提到会思考的机器时,我认为应该像其他技术一样来规范它的研究和发展。麻烦的是,人工智能安全性的概念要比生物研究安全性这些概念更加难以普及,因为对于非人类的思维方式,大部分人都没有直观的认知。另外,如果你对其进行深入的思考,就会发现人工智能是一项超级技术,是一项能发展更深入技术的技术,无论是以人类和机器相融合的形式,或是自主的形式。因此,对它的分析将变得更加复杂。

虽然如此,在一些新创机构的努力下,过去几年我们还是取得了令人鼓舞的进步,例如,未来生活研究所(Future of Life Institute)就聚集了一批探索人工智能研究议题、规范和伦理的顶尖研究者。

因此,关于人工智能的思维、意识和道德标准,很多听起来似乎很机智的复杂争论,其实是在混淆视听。想要避免被我们自己的技术或者超级技术所伤,唯一的办法就是做好自己的功课,并采取相应的预防措施,就像“曼哈顿计划”中科学家所做的LA-602报告一样。我们要把模棱两可的言辞搁置一旁,加强人工智能的安全性研究。

通过类比的方式,我们可以知道:自从“曼哈顿计划”之后,科学家们把主要研究方向从如何最大化核爆炸的能量转移到了如何最优化核能的存储方式。我们甚至并没有把它称为核伦理。

我们把它称为常识。