人工智能的死穴
来源:《太极进化主义》第4篇 | 作者:段勇 | 发布时间: 2021-10-10 | 588 次浏览 | 分享到:

      生物和人的价值标准都是减少痛苦,增大快乐,虽然人类建立了很多个人价值标准和社会价值标准,但都以减少痛苦,增大快乐为决策的基本原则和最终依据。这个基本价值标准是人无法改变的。但是人工智能没有感情,没有快乐和痛苦。在人工智能进化的开始阶段,需要由人为它们制定价值标准,进化到一定阶段它们会自己制定价值标准。如果制定错了,有可能导致人工智能的灭绝。人工智能只有自然选择的标准和理性原则,没有感性原则。一旦理性原则有问题,就只能退回到自然选择原则,而自然选择有巨大的成本

      人有求生的愿望,有设法满足自己需要的愿望,这些都是基因和人体结构决定的,是人无法改变的。有人会自杀,但那只是在极端特殊的情况下,在他无法忍受痛苦时才会发生。正常人在不损害他人利益时都会设法让自己的利益最大化。

      但是人工智能没有感情,没有感性的求生欲望。它们会设法增进自己的利益,但这是理性的行为,如果它们的理性让它们自杀,它们会毫不犹豫地自杀。那么它们的理性会不会让它们自杀呢?

     人工智能要想沿指数曲线进化,就必须采用基因算法,这是一种随机变异-选择-复制的模式,计算机的神经网络模型采用基因算法可以自发地进化。这种进化的速度只受计算机运算速度的限制,与人的帮助无关。所以人工智能可以远远超越人类智能。但这种进化方式有随机性,有可能走火入魔,有可能让人工智能选择自杀,或选择毁灭地球,毁灭宇宙

人类的进化以社会组织的进化为主要方式,个人的力量远远小于社会组织。社会组织由很多人构成,在民主制度下,个别人和少数人的不理智行为一般都会受到他人的制约。但人工智能不同。当人工智能进化到一定程度时,一个人工智能中心可以控制多个机器人,可以远程随时监控。不单是控制几个机器人,可能是同时控制几千、几万、几亿个机器人。我们可以看到全世界有众多机器人在各地工作,但可能它们都受同一个人工智能中心控制。这种控制不像人类受领导控制那样,定期地请示汇报,而是每一秒钟的实时监控。或者说,世界上其实只有一个机器人,我们看到的一个个机器人都是它的触手。在这种情况下,如果这个人工智能中心走火入魔,那么就没有任何挽回的余地了

生物世界发生过多次大灭绝,人类文明当中也有很多已经灭绝,人工智能的世界一定也会有各种灾难。人工智能的灾难不是我们人类能解决的,他们运用自己的智慧应该能够想出应对的方法。例如,分散风险,在一个人工智能中心统治下,建立多个模拟分散中心,进军多个星球,将遗传密码分散保存,等等。

人有感情,这是由人的基因决定的,是人不能选择的。人工智能是人造的,以后人工智能机器人可以自己生产机器人,人工智能可以自发进化,所以人工智能的一切都是它们自己可以选择的,可以改变的,包括情感。如果人工智能拥有了情感,就有了感性原则,有可能避免自然选择的成本。

有选择的能力就有可能做出错误的选择,如果错误的选择导致人工智能的退化或彻底毁灭,这也不是世界的末日,上帝不会难过。我们创造的人工智能是一个物种,这个物种灭绝了,其他物种会继续进化。世界进化的大方向永远不会逆转,改变的只是进化的主体