广义进化的宇宙主义
来源:《太极进化主义》第4篇 | 作者:段勇 | 发布时间: 2021-10-10 | 576 次浏览 | 分享到:

  世界的进化是从简单到复杂的过程,从基本粒子到星系,从非生物到生物,从低级生物到人,从人的简单群体到复杂的社会组织。随着复杂的程度增大,有序的程度也增大。人是至今为止最复杂的生物,人类社会组织是最复杂的系统。但是将来有一天,当人工智能超越人类智能之后,人不再是最复杂的生物,人类社会组织不再是最复杂的系统,人工智能将会代表进化,人不能代表进化。

  定理:当人工智能超越人类智能之后,人工智能代表进化,人不能代表进化。

假设那个更复杂有序的系统对你没有威胁,这时你会为世界的进化而高兴,还是为人类的失落而痛心?你是接受这样的现实,还是决心消灭那个更复杂有序的系统

在资本主义社会发展的早期曾经发生过工人砸烂机器的事情,因为他们认为自己生活贫困是先进的机器造成的,只要回到原来的手工作坊,就会实现平等和博爱。马克思主义者对待这个问题的看法是非常明确的:虽然工人反抗资本家的剥削是正义的斗争,但砸烂机器是阻碍生产力的发展,也就是阻碍历史的发展。马克思主义所说的历史发展与广义进化基本是一个意思,如果让马克思来解答上面那些问题,我想他会为生产力和历史的发展而高兴,而且愿意接受被人工智能超越的现实。

人类经历了漫长的黑夜,两次世界大战只是无数次战争的代表,中世纪的黑死病夺走数亿人生命,让欧洲变成荒漠,无数的洪水、火灾和瘟疫是人类的家常便饭,数百万年中与猛兽周旋,人类一点一点地征服自然,成为自然的主人,一点一点地征服人类的邪恶,成为自己的主人,最后终于走向文明,走向理性、科学,过上幸福生活,憧憬美好未来的时候,人类历史马上走入终点了。这就叫物极必反。

轻易地放弃自己对世界的统治,人类当然不甘心。但在科学技术高度发达的今天,人类面对的威胁似乎不是减少了,而是更多、更致命了,例如核武器、恐怖主义、环境破坏、人造病毒和纳米机器人等。超级人工智能被加里斯教授当成人类最大的灾难,但是我认为超级人工智能不仅不是灾难,而且还是人类彻底告别灾难的唯一希望

  人类的智慧在飞速进步,创造出了无数的奇迹,但是这些奇迹大多都是双刃剑。只有超级人工智能可能创造出真正安全的奇迹,只有人工智能可以全面准确地预测未来可能发生的种种灾难,并能想出防范各种灾难的有效办法,把人类带入真正的天堂。如果我们拒绝超级人工智能,那么人类早晚会被那些稀奇古怪的灾难吞噬。因此,超级人工智能对于人类来说虽然可能是一种威胁,但不能把它与其他威胁混为一谈,代表进化和消除灾难这两个特点是其他任何威胁都不具备的特征,这是本质区别