人工智能主宰世界
来源:《太极进化主义论文集》 | 作者:段勇 | 发布时间: 2021-10-10 | 1354 次浏览 | 分享到:

有一本畅销书叫《人类简史》,作者是以色列人尤瓦尔·赫拉利。在最后一章赫拉利列出了一些革命性的新技术,包括建构一个直接的大脑-计算机双向接口,再直接将大脑连上网络,还有“蓝脑计划”,在计算机里建构出人工大脑,而且语言及举止就像正常人一样。但是赫拉利不知道这些技术对未来世界的影响远远小于基于深度学习(遗传算法)的人工智能。

2016年3月9日-15日,AlphaGo与李世石的围棋人机大战吸引了全世界关注,后来AlphaGo再下棋的时候,人类的棋王、棋圣们就再也没有取胜的机会了。自动驾驶技术很快就会走向成熟,以后我们手里的驾照都白考了。在肺癌的诊断方面现在人工智能已达到三甲医院的临床医生水平!将来每一个家庭都可以有一个家庭医生。还有快递机器人,鉴赏食品的机器人,机器人牧羊犬,机器人广播员等等。

科大讯飞股份有限公司的“晓译”翻译机准确率达95%至98%,时间上几乎没有滞后,受到李克强总理的称赞,要把它引入外交部。咱们为了学英语花了多大精力呀,以后英语都白学了,白考了。

那其他课还用学吗?将来肯定都不用学了,在大脑中植入一个芯片,你马上就变成天才。当然现在不行,至少还需要三十多年。所以今天还要努力打拼。

现在很多专家在讨论有哪些职业不会被人工智能取代,我觉得这个问题应该不需要讨论了。没有什么职业不能被人工智能取代,机器人可以做任何事,而且将来都可以比人做的好千万倍。将来我们与机器人竞争,就像让阿Q跟泰森比赛拳击。

机器人不仅可以取得人类的一般职位,还可以成为政府官员,包括政府最高首脑。那时候,你根本分不清谁是人,谁不是人。机器人长的跟人一样,而且能说会道,滴水不漏,风趣幽默,让你感到非常亲切。做事细致周到,能照顾到每个人的利益,让你心悦诚服地拥护他。不管是用阳谋还是用阴谋,机器人都能取得最高权力。中国的统一不再是问题,世界的大统一都会成为可能。

那么这一天什么时候会到来?二三十年后,人工智能会全面超过人类,然后再过几年就会超过人类数十倍、数百倍、数亿倍。我们可以亲眼看到这个过程。所以就业等问题都不需要再讨论了,那么需要讨论什么呢?需要讨论人类的未来命运。

人总是过于自大,总认为人类是世界的主人,总想征服世界。这叫人本主义,或叫人道主义,以人为本。人本主义在其他场合都是对的,但面对人工智能的时候就不对了。人必须重新审视自己,正确地给自己定位,俗话说,要知道自己姓什么。宇宙的进化分为四个阶段:非生物进化阶段、生物进化阶段、人类进化阶段和人工智能进化阶段。人类文明只是其中的一个阶段,这个阶段有开始,就有结束。

在《智能简史》一书中,雨果·德·加里斯综述了支持人工智能发展的关键技术:

(1)遗传算法可以让神经网络自主进化,甚至可以完全脱离人的指导。只要计算速度不断提高,人工智能就可以无限制地进化。

(2)摩尔定律指出,集成电路的性能约每隔18个月增加一倍。摩尔定律在过去的40年一直有效,这样在不久的将来,计算机的运算速度将达到天文数字,人工智能的水平将达到人类智能的万亿个万亿倍。据说国际象棋的发明人古印度宰相西萨·班召。国王问他想要什么奖赏时,他说:“陛下,请您在这张象棋棋盘的第一个小格内,赏给我一粒麦子,在第二个小格内给两粒,第三格内给四粒,就这样下去,每一小格内都比前一小格加一倍,摆满棋盘就行了。”国王说:“你就要这么一点,好,我如数给你。”但国王随后就看出,即便拿全印度的粮食,也兑现不了他的诺言。原来,所需麦粒总数是:^

1+2+4+8+16+……263

=264-1

=18,446,744,073,709,551,615

如果造一个仓库来放这些麦子,仓库高2米,宽4米,那么仓库的长度是150,000,000千米,约等于地球到太阳的距离。

计算机的计算能力不断翻倍,过不了多长时间也会发生这种突变,从而使人工智能的水平达到人类的亿万倍。

(3)“量子计算”可以把计算速度再增大亿万倍;

(4)可逆计算使制造小行星一样的超大计算机成为可能;

(5)纳米技术使人能随意组装分子和原子,以垃圾为原料繁殖出无数机器人,还可以和生物工程一起破解人类大脑的思维方式;

(6)费米科技是原子核和夸克级工程,又会给计算速度的提高带来无限的可能性;等等。([美]雨果·德·加里斯.智能简史——谁会替代人类成为主导物种[M].胡静译.北京:清华大学出版社,2007:52-73.)

加里斯综述完这些技术之后得出一个结论:50年或100年以后,人类将无法控制人工智能,因此可能出现巨大的危机——人工智能可能会因为我们无法了解的原因而灭绝人类。

面对这种危险,有些科学家主张停止研究人工智能,这些人被称为地球主义者。例如美国的未来学家比尔·乔伊,他在分析了技术进步带来的各种可能前景和人类的各种对策之后认为:“在我看来,唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。我们不能冒全军覆灭的危险来攫取更多的知识或财富。”这就是地球主义者的主张,他们这样说不是故意反对进化和进步,而是找不到别的办法。