使人工智能具备法律人格

时间:2023-11-29 17:49:02

我想,在对人工智能伦理的探讨中,在各国或者在更小的行政区划内产生不同的规则,也是无可奈何之事。因为,现在人类社会的守则中本来就鲜有世界通用的。

例如公费医疗保险就是一个典型的例子。在日本,一般人们都认为,大家都应该参加医保。不过在美国,就没有制度规定所有人都有参加医保的义务,所以偶尔会出现一些人没钱接受治疗,只能被放弃的事情。

使人工智能具备法律人格

国家和地区不同,制定规则的人的想法也全然不一样。因此,在不同地方,不同的人会根据各自不同的意见,不断对规则进行调整和修改,使规则越来越完善。

从另外一个可能性来说,也许有一天,完善的人工智能,会帮助人类来探索和修改伦理应有的规则。到那时,倘若人工智能表示:“以前的伦理规则是错误的,从今天起,应该这么办。”大家会如何应对呢?我想,应该会有很多人表示不服吧。

也有些人认为,让机器人对这种伦理问题进行自主判断的时候,需要先赋予机器人法律人格才行。之前提到的松尾先生告诉我这件事时,我觉得很有道理。

的确,这样一来我们就可以追究人工智能的法律责任了。这时人工智能就会产生一种社会信用,如同消费者评价企业那样,我们也可以评价人工智能,诸如“这个人工智能法人十分尊重人命”。以此为担保,人工智能就有可能在社会中应用得更加广泛。