我们应该把超级人工智能与核武器作一个对比,核武器唯一的作用就是破坏,没有任何建设性的作用,如果说有建设性作用,也是用破坏的方式达到的。而超级人工智能拥有无比巨大的建设作用,未来每一个国家都必然依赖它。
对于只有破坏作用的核武器,人类是什么态度呢?首先人类有巨大的恐惧,核冬天被描写得绘声绘色,并且家喻户晓、老幼皆知。每一个国家的政府都对核武器高度重视,并制定了国际公约,防止核扩散。但是人类消除核武器了吗?每一个国家的媒体都曾经坚决要求全面消除核武器,消除核武器的社会舆论曾经无比巨大,以至于几乎每一个国家的每一个领导人都信誓旦旦地承诺要为全面消除核武器尽力。但是最后的结果证明所有的承诺都是欺骗,没有一个国家愿意放弃核武器,对于核武器的恐惧永远小于对于竞争对手的恐惧。
当人工智能超过人类的智能时,会引起人类的恐惧,但不是所有的人都有这种恐惧,宇宙主义者会坚信人工智能是安全的,会向公众解释这些理由,还会运用各种手段增强公众的安全感。宇宙主义者现在占半数左右,将来随着人工智能的益处日益显露,宇宙主义者的阵营会越来越庞大。即使人数上不占优势,在势力上也会占优势,因为他们当中有人类最优秀的科学家、企业家和政治家。在舆论一边倒的情况下,人类都不能消除核武器,那么在舆论不相上下的情况下,怎么可能消除人工智能呢?所以对于宇宙主义的禁令决不会在所有国家生效。而且那些地球主义者占优势的国家也不会放弃人工智能,因为对于人工智能的恐惧永远小于对于竞争对手的恐惧。
也许你会说:“人工智能与核武器不一样,人能控制核武器,但人控制不了人工智能。”我在前面已经找到了控制人工智能的方法:把自己改造成半机器人和利用人工智能控制人工智能。你会说:“你说的方法有风险!”没错,是有风险,但是对核武器的控制又有多大把握呢?
如果将来民族仇视和战争都消除了,那么人们还会为了与对手竞争而研制人工智能吗?会的。因为每个人都懂得一个道理:害人之心不可有,防人之心不可无。20世纪90年代美国一家独大又不想发动征服战争的情况下,仍然不消除核武器就是证明。而且国家之间的竞争不只是为了战争,经济、科技、文化之间的竞争同样是非常激烈的,而每一个领域的竞争都必须依靠人工智能。
中国人两千年前就主张无为,但无为作为一种政治主张从来没有真正实现过,顶多是在一定时间、一定范围内作为谋利的手段存在而已。为什么无为不能实现?根本原因除了欲望之外还有竞争。竞争使人攀比,也使人不得不攀比,一旦不攀比就会落后,落后就会挨打。竞争像一根鞭子一样抽打着每一个人不停地牟利和攀比。由第1篇第3章3.2.3的定理可知,竞争是促进生物和人类社会进化的最主要动力之一,但这个动力是人类很难控制的。进步带来的利益和祸害我们都必须接受,可以说:成也竞争,败也竞争。