如果机器人不会灭绝人类,那么是不是就平安无事了呢?其实最让加里斯忧虑的是地球主义者的狭隘、偏执和恐惧,加里斯认为地球主义者尽管没有理由说明机器人对他们有任何威胁,也会挑起战争,剪除后患。
在历史上这种事情发生过很多次,多数开国君主都会杀功臣,剪除后患。但这种行为是不道德的,受到人们普遍的批判。例如大家都认为李自成不应该杀李岩,当时就引起了军心的涣散。而且这种行为是以独裁专制为前提的,在今天民主法制的社会里不应该发生。现在民主法制比较发达的国家里,对于政治犯的处罚都非常慎重,很少出现20世纪50年代杜勒斯那样的恐怖行为了。所以加里斯对于地球主义者的担心是过分了。
加里斯把西拉特的例子当成他的主要论据之一,西拉特发现了原子弹的原理和危险,但开始时五角大楼把他当成疯子。但最后西拉特说服了美国总统,没有让希特勒首先拥有核武器,避免了人类更大的灾难,所以地球主义者会想到今天应该防止宇宙主义者制造超级智能机器,应该先下手,剪除后患。
我认为加里斯的这个论据是不适当的,不能把今天的宇宙主义者比作希特勒,也不能比作斯大林。因为今天宇宙主义者的主要成员都生活在民主国家里,遵纪守法,与希特勒、斯大林完全不同,怎么能对他们痛下杀手呢。当年如果想剪除后患,就应该趁苏联拥有核武器之前首先把苏联炸平。但西方领导人没有那样做,虽然有很多人极力渲染红色恐怖,西方领导人也希望除掉苏联和社会主义阵营,但最后他们还是选择了等待观望,事实证明他们的决策是对的。如果他们悍然发动对苏联的战争,一定会招致全世界和美国国内人民的强烈反对,被当成第二个希特勒。
加里斯的另一个依据是:对于斯大林来说,付出十万俄国士兵伤亡的代价是合理的,因为可以让俄国人从纳粹大屠杀的恐惧中解救出来。加里斯用这个论据证明地球主义者先下手的可能性,但这与现在的情况相差太远。纳粹大屠杀发生在前,斯大林的这种决策是以事实为依据的,而不是以理论推导为依据。这不仅是斯大林的决策,也是全世界人民的决策,是俄国士兵自发的强大斗志。如果没有纳粹的大屠杀和无端的侵略,俄国士兵不会那样英勇战斗。所以,地球主义者只能用民主和法律的方法限制宇宙主义者,绝不可能在没有事实依据的情况下,挑起对宇宙主义者的战争。
当然发生这种战争的可能性也不是一点都没有,但必须同时满足三个条件:第一,地球主义者制定了法律禁止制造超级智能机器;第二,宇宙主义者公然违抗法律;第三,宇宙主义者的势力不太大也不太小。如果宇宙主义者势力很小,那么警察就解决问题了;如果宇宙主义者势力很大,那么地球主义者不敢轻易开战。第一个条件也很难实现,加里斯作的调查显示,地球主义者现在并不占绝对多数。当然这种情况下,制定法律也是有可能的。
那么宇宙主义者会不会公然违抗法律呢?加里斯作为宇宙主义者一定不会,我相信多数宇宙主义者都不会,少数宇宙主义者有可能。就像今天多数国家都遵守核不扩散条约,但有少数国家违反一样。
核扩散的危险导致了美国对伊拉克的战争,超级智能机器的失控会不会引发类似的战争呢?会,但可能性不大。理由有三点:第一,事实证明美国对核扩散的担心是多余的,这个教训会使今后爆发类似战争的可能性进一步缩小。第二,不要忘了美国发动战争之前的“9.11”事件,也就是说美国人的担心是有事实依据的,不是只有理论依据。第三,超级智能机器与核武器不同,技术难度大得多,小国很难制造。
加里斯提到了两种战争:人与人之间的战争和人与机器人之间的战争。除了这两种战争之外,其实还有第三种战争,那就是机器人与机器人之间的战争。现在世界各国都在研制机器人,在同一个国家中又有很多不同的机构和个人在研制机器人,所以机器人分属于不同的主体。当机器人自身成为主体,摆脱人的控制之后,仍然存在不同的主体,在这些主体之间会产生复杂的关系。
每一个人都有自己的利益,每个人为了维护自己的利益都会试图控制其他人。当每个机器人成为主体之后,它们也会有自己的利益,也会努力维护自己的利益,为了维护自己的利益,也会努力控制其他机器人。这样一来,机器人之间的战争就很难避免了。
这种战争的破坏力会远远超出人类战争,可能地球和太阳系都会变成这种战争的牺牲品。在这种战争面前,人类能做的事情大概只有祈祷了。不过,这也没有什么。前面已经说过,我们应该把机器人看作自己的子孙,子孙的事情让子孙去处理就是了。中国有句俗话:“儿孙自有儿孙福”。机器人应该有能力处理自己的事情,就像人类有能力处理人与人、国与国之间的事情,能够维护世界和平一样,机器人应该也有能力维护世界和平。我们不必每天为未来担忧,就像不必为古人担忧一样。