17位顶级科学家对人工智能的错误认识
来源:《太极进化主义论文集》 | 作者:段勇 | 发布时间: 2021-10-10 | 1503 次浏览 | 分享到:

Jaan Priisalu认为:“最好的策略只能是积极塑造发展中的人工智能,教会它们以对彼此都有益的方式和人类共同生活。”但他没有说对于这种方法的成功他有没有信心。Jaan Priisalu还说:“我们也不应该跟一个有自我意识的人工智能对抗,那样只会让它变得更有侵略性。”其实,积极塑造人工智能就是与人工智能对抗,因为对于那些不符合塑造标准的人工智能如果不消灭就意味着塑造失败了。我们应该努力把机器人教育好,但这种教育无法保证机器人一定孝顺。张居正对万历皇帝曾严加管教,但张居正死后,万历皇帝怠政三十年。Jaan Priisalu可能没有意识到不与人工智能对抗意味着接受可能塑造失败的结果,如果人工智能打算灭绝人类或屠杀一部分人类,那么人也只能听天由命。

面对即将被超越的命运,人类必须看懂人工智能的本质,对未来有正确的预期,从而不至于自乱阵脚。这17位顶级科学家的谈话很有代表性。从这些谈话可以看出,多数科学家对于人工智能可能带来的威胁的认识都是非常肤浅和幼稚的,他们既没有认识到人工智能可能带来什么样的威胁,更拿不出应对威胁的正确对策。有朝一日当他们发现自己低估了机器人之后,很可能会惊慌失措,并开始强烈反对发展机器人。“既然人类未来命运可能如此悲惨,为什么不从现在开始采取措施呢?”这种想法是最危险的,因为这必然导致人类内部的混乱。历史上很多悲剧都是由人的认识局限和观念分歧造成的。例如文化大革命就是一场人为制造的悲剧,如果认识问题能早点解决就有可能避免。对人工智能的观念分歧有可能造成人与人之间的激烈冲突,雨果·德·加里森担心会因此爆发战争。

对于人工智能的正确态度到底是什么呢?首先,我们不能低估机器人对人类的威胁,这种威胁可能达到灭绝人类的程度,我们不能闭起眼睛装不知道。但我们又不能因为有风险就停止研究人工智能,因为这种风险是世界进化必须付出的代价。而且这种风险并不比现在大,人类现在拥有的核武器也足以毁灭地球。世界必将从人类进化阶段转换到人工智能进化阶段,只有当我们建立了这种正确的历史观的时候,我们才能具有宽广的胸怀和平静的心态,做好接受一切风险的思想准备。

其实,人工智能灭绝人类的可能性很小,更可能的是人工智能完全控制人类。这种控制是每一分每一秒的控制,而且是针对每一个人的控制。因此,每一个人都不再具有主体性了,都只是人工智能中心的工具和触手而已。世界上看似有几十亿人,实际上只有一个人。每一个人都不再有自己的利益,人变成了机器,死与不死没什么区别了。或者人仍然有自己的思想,只要不越出人工智能划的红线就行。一旦越轨,这个思想就被删除或更改,于是每个人都不可能违法犯罪。

 

参考文献:

与顶级专家对话,探讨人工智能影响我们生活的17个方面.搜狐>科技>正文. http://www.sohu.com/a/129204342_337363