在2016年以前,有很多著名科学家和企业家认为人工智能不可能超过人类智能。例如,IBM首席执行官罗睿兰(Ginni Rometty),PayPal创始人彼得·泰尔(Peter Thiel)。但随着人工智能的快速发展,尤其是围棋世界冠军李世石被机器人打败以后,持这种观点的人明显减少了。很多科学家和企业家纷纷表示担心人工智能会摆脱人类控制,并给人类带来灾难。尽管史蒂芬·霍金(Stephen Hawking)对AI的崛起有点儿乐观,并认为AI可能是人类历史上最伟大的进步,但他对AI保持极度警惕。霍金说:“不幸的是,它可能是人类最后的创新,除非我们学会如何规避风险。从短期来看,世界各国军队都在考虑使用自动武器,它们可以自主选择和消灭目标。联合国和人权组织已经提出主张,希望能够签署条约禁止此类武器。从中期来看,AI或许能改变我们的经济,带来巨额财富,同时也有巨大的错位。”(AI将呈爆炸性增长?看看这些圈内人怎么说.网易>悦图>科技频道.2017-03-19. http://tech.163.com/api/photoview/0AI20009/14666.html?1489882780097#p=CF3339LB0AI20009?ad)
比尔·乔伊是Sun Microsystems公司的首席科学家,他2000年撰写的论文《为什么未来不需要我们?》(Why the Future doesn’t Need Us)在《连线》(Wired)发表后引起强烈反响。比尔·乔伊在分析了技术进步带来的各种可能前景和人类的各种对策之后认为,面对危机人类的各种对策“要不就是我们极力反对的,要不就是我们不能完成的,或者两者皆是。在我看来,唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。”
这就是地球主义者的主张,他们这样说不是故意反对进化和进步,而是找不到别的办法。比尔·乔伊说:“是的,我的确知道知识有助于我们,特别是发现真理的探索。我们从远古时代就开始寻找知识。亚里士多德在其《形而上学》中开篇明义:‘人天生求知。’在近代,我们开始崇拜科学知识。但是,忽视有力的历史教训,允许自己获取并无限制发展知识,就会使我们陷入物种灭绝的境地,而常识要求我们再次检验甚至很基本的、长久以来奉为圭杲的信念。我们每个人都在寻求快乐,但对此值得发出疑问:我们是否要冒全军覆灭的危险来攫取更多的知识或财富;我们的物质需求是有限的,这是尽人皆知的常识,并且我们都知道某些知识很危险,必须被放弃。我们不应当对这些危险的知识付出代价,不应当对与之同步增长的灭绝危险视而不见,不应当不顾这一切而去追求永生不死。永生不死,也许是我们最初的乌托邦梦想之一,但肯定不是我们唯一的梦想。”
然后,比尔·乔伊分析了放弃这些知识的可能性:“此时此刻,只是我们的恶习、我们的欲望、我们的经济体系,我们的竞争在驱使着我们,在处理核武器的威胁时,我们经常对自己、对别人撒下弥天大谎。我们正被推入一个新世纪,没计划、没控制、没刹车。我们已经深陷泥潭了吗?虽然我并不这样认为,但目前我们没有努力自救,最后用来确保我们能够走上正确道路的机会已经在快速远去。事实证明,真正放弃危险技术将是件非常困难的任务,但并不是不能解决的问题。20世纪,我们在处理大规模杀伤性武器上的尝试提供了一个光明的先例以供我们参考:美国在没有任何先决条件的情况下单方面放弃了生物武器的开发。这一行动来自于这样的现实状况:当费尽心机开发出恐怖的武器,却有可能被人很容易地复制并流入到无赖国家或恐怖组织手中。”
从比尔·乔伊的这些话里我们可以看到,地球主义者的主张义正词严,因此一定会得到很多人的响应。但宇宙主义者也很强大,宇宙主义者就是支持人工智能的人。库兹韦尔认为,试图通过禁止技术来推迟“奇点”不仅是不可能的,而且是不道德的甚至是危险的。加里斯认为,面对这样的前景人类将分为两派:地球主义者反对制造人工智能,宇宙主义者坚持制造人工智能,他们之间的矛盾将激化并导致战争。
对于比尔·乔伊和加里斯等人的观点,我们首先应该认真对待,不能把这当成科幻小说。计算机和人工智能的飞速发展已经有目共睹,随后产生的问题我们也必须面对,无视或者回避的态度都违背科学精神。科学研究的主要目的就是预见未来,而当一种新的可能性提出来时,即使它很荒谬,我们也应该认真地对待,找出反对它的确切理由,而不能一笑了之。
加里斯教授对于技术前景的预计让人信服,但灭绝人类和人类战争的预测有逻辑上的缺陷。即使真有危险,也不可能停止制造人工智能,既不应该,也不可能。相反,人们会争先恐后地研制和采用人工智能。到了2040年左右,每个人都会相信一句话:拥有人工智能,就可以拥有一切。