17位顶级科学家对人工智能的错误认识
来源:《太极进化主义论文集》 | 作者:段勇 | 发布时间: 2021-10-10 | 1502 次浏览 | 分享到:

有一篇文章记述了就人工智能的问题对17位顶级科学家的采访,从这些科学家的谈话中可以看出现在科学界对于人工智能的认识是何等混乱。

麻省理工学院计算机科学和人工智能实验室主任丹妮拉·罗斯:“我对未来很乐观,相信人工智能可以让人和机器共同工作,让生活更美好。”百度副总裁兼首席科学家吴恩达说:“今天担心邪恶的人工智能杀人魔就像担心火星上的人口过剩。在将来或许会出现这个问题,但我们还没登陆火星呢!”哈佛大学心理学教授斯蒂芬·平克说:“我们应该多多担心气候变化、核武器、抗药性致病菌、以及反动和新法西斯政治运动。我们应该担心自动化经济带来的失业工人。我们不应该担心人工智能会奴役人类。”斯坦福大学计算机科学教授塞巴斯蒂安·塞隆甚至说:“我超级热爱人工智能,对它没有一点担心,一丁点都没有。人工智能将把人类从高度重复无脑的办公室工作中解放出来,让人们得以从事真正具有创造性的工作当中。我都等不及了!”

但是普林斯顿大学计算机科学教授Margaret Martonosi:“完全无视人工智能带来的危险是愚蠢的。”加利福尼亚理工学院宇宙学和物理学教授西恩·卡罗尔说:有可能发生“严重的无法预期的后果。”,牛津大学人类未来研究所所长尼克·博斯特伦(Nick Bostrom说:“人们的确应该认真看待事情出现严重错误的可能性。”但他们没有说这种后果会严重到什么程度。

有些科学家比较详细地谈了人工智能可能带来什么样的威胁,他们列出的威胁包括:

1.对人类就业的威胁

2.人工智能将让现有系统在黑客入侵面前变得更加脆弱。复杂的网络黑客攻击让我们从网络上获取的信息不再可靠,让国家和国际基础设施薄弱不堪。

3.人类会失去对更加聪明的恶意软件和将不安全人工智能用于犯罪的控制。

4.可能出现类似影响英国脱欧公投和美国总统大选的情况。

5.成为加剧财富不均和政治极化的社会-技术推动力的一部分,而后者在19世纪末期20世纪初期引发了两次世界大战和大衰退。

6.致命武器自动系统。

科学家所列出的这些威胁都是有限的威胁,他们认为机器人只能偷偷摸摸地使坏,没有能力公开与人类对抗,不会威胁整个人类的生存。用加州大学伯克莱分校计算机科学教授斯图亚特·罗素的话说,这只是一个“偶然的价值失衡”问题。这些科学家不相信机器人能拥有神一样的威力,只要轻轻动一下手指,就能灭绝整个人类。

乔治梅森大学经济学教授布莱恩·卡普兰说:“人工智能不会比它背后的人类可怕。跟驯养的动物一样,人工智能是为了它的创造者服务。北朝鲜拥有人工智能让人们感到恐慌的原因就跟北朝鲜拥有远程导弹一样。人们对人工智能的恐慌应当仅限于此,《终结者》中的人工智能背叛人类不过是一厢情愿的想象。”莱斯大学计算工程教授Moshe Vardi说:人类丧失对机器的控制权这种危险“除了占据版面头条外,没有紧迫的现实威胁。”丹妮拉·罗斯说:“人工智能是一款强大到难以置信的工具,跟其它工具一样,它本身无所谓好坏,关键在于人们选择如何使用它。”

认为机器人只能是人的工具这种说法严重低估了未来机器人的能力。霍金不认为机器人只是人类的工具。他在接受英国《泰晤士报》来访时发出警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”

在弱人工智能和强人工智能阶段,人可以把人工智能当成工具,但进入超人工智能阶段以后,机器人就不再是人的工具了。机器人就像人的孩子,小的时候父母可以利用它,长大以后就不能再为我们所用了。它可能很孝顺,也可能不孝顺,人类完全没有办法控制。机器人智能的指数增长使它们不再是人类的工具,而是主宰人类命运的主子。

只有北约卓越网络防御中心高级研究员,爱沙尼亚信息系统机关前局长Jaan Priisalu提到了机器人智能水平的指数增长,他说:“不应该否认人工智能的指数级增长,因为无视人工智能的发展意味着将人类自身排除在规则将重新制定的世界外。”但是他没有解释什么叫“将人类自身排除在规则将重新制定的世界外。”是像当年中国被排斥在联合国之外,还是像动物被排斥在人类文明之外。

面对人工智能,人类应该怎样应对?乔安娜·布莱森说:“人类不应该陷入恐慌。”但他没有说怎样才能不陷入恐慌。很显然,如果没有明确的应对的方法,那么人类很难不陷入恐慌。Moshe Vardi希望能找到两全其美的解决方法,他说:“我们应该严肃讨论什么决定由人类来做,什么决定由机器来做。”看来他觉得只要我们规定好哪些决定不能由机器人来做,那么机器人就不敢做这些决定。西恩·卡罗尔说:“正确的做法是认真而彻底地考虑这些后果,以及如何防范它们,同时又不至于限制人工智能的发展。”但是卡罗尔没有对人工智能作认真而彻底的思考,不等于别人也没有作认真而彻底的思考。经过几十年的争论,现在答案已经很清楚,不可能找到两全其美的解决办法。人类只有两种选择,要么限制人工智能的发展,要么准备承受发展人工智能带来的一切后果。

只有Jaan Priisalu提出的应对措施是正确的,他说:“我们不应该做的是:宣布人工智能增强为非法。如果这样做了,破坏规则的人将获得极大的优势。”也就是说,他反对霍金所说的对人工智能进行控制的观点。如果我们停止研究人工智能,那就等于自毁长城,某些国家或恐怖组织会全力研究,然后用这些技术来做坏事。那么我们应该怎样做呢?Jaan Priisalu认为:“最好的策略只能是积极塑造发展中的人工智能,教会它们以对彼此都有益的方式和人类共同生活。”但他没有说对于这种方法的成功他有没有信心。Jaan Priisalu还说:“我们也不应该跟一个有自我意识的人工智能对抗,那样只会让它变得更有侵略性。”其实,积极塑造人工智能就是与人工智能对抗,因为对于那些不符合塑造标准的人工智能如果不消灭就意味着塑造失败了。我们应该努力把机器人教育好,但这种教育无法保证机器人一定孝顺。张居正对万历皇帝曾严加管教,但张居正死后,万历皇帝怠政三十年。Jaan Priisalu可能没有意识到不与人工智能对抗意味着接受可能塑造失败的结果,如果人工智能打算灭绝人类或屠杀一部分人类,那么人也只能听天由命。

面对即将被超越的命运,人类必须看懂人工智能的本质,对未来有正确的预期,从而不至于自乱阵脚。这17位顶级科学家的谈话很有代表性。从这些谈话可以看出,多数科学家对于人工智能可能带来的威胁的认识都是非常肤浅和幼稚的,他们既没有认识到人工智能可能带来什么样的威胁,更拿不出应对威胁的正确对策。有朝一日当他们发现自己低估了机器人之后,很可能会惊慌失措,并开始强烈反对发展机器人。“既然人类未来命运可能如此悲惨,为什么不从现在开始采取措施呢?”这种想法是最危险的,因为这必然导致人类内部的混乱。历史上很多悲剧都是由人的认识局限和观念分歧造成的。例如文化大革命就是一场人为制造的悲剧,如果认识问题能早点解决就有可能避免。对人工智能的观念分歧有可能造成人与人之间的激烈冲突,雨果·德·加里森担心会因此爆发战争。

对于人工智能的正确态度到底是什么呢?首先,我们不能低估机器人对人类的威胁,这种威胁可能达到灭绝人类的程度,我们不能闭起眼睛装不知道。但我们又不能因为有风险就停止研究人工智能,因为这种风险是世界进化必须付出的代价。而且这种风险并不比现在大,人类现在拥有的核武器也足以毁灭地球。世界必将从人类进化阶段转换到人工智能进化阶段,只有当我们建立了这种正确的历史观的时候,我们才能具有宽广的胸怀和平静的心态,做好接受一切风险的思想准备。

其实,人工智能灭绝人类的可能性很小,更可能的是人工智能完全控制人类。这种控制是每一分每一秒的控制,而且是针对每一个人的控制。因此,每一个人都不再具有主体性了,都只是人工智能中心的工具和触手而已。世界上看似有几十亿人,实际上只有一个人。每一个人都不再有自己的利益,人变成了机器,死与不死没什么区别了。或者人仍然有自己的思想,只要不越出人工智能划的红线就行。一旦越轨,这个思想就被删除或更改,于是每个人都不可能违法犯罪。

 

参考文献:

与顶级专家对话,探讨人工智能影响我们生活的17个方面.搜狐>科技>正文. http://www.sohu.com/a/129204342_337363