17位顶级科学家对人工智能的错误认识
来源:《太极进化主义论文集》 | 作者:段勇 | 发布时间: 2021-10-10 | 1501 次浏览 | 分享到:

有一篇文章记述了就人工智能的问题对17位顶级科学家的采访,从这些科学家的谈话中可以看出现在科学界对于人工智能的认识是何等混乱。

麻省理工学院计算机科学和人工智能实验室主任丹妮拉·罗斯:“我对未来很乐观,相信人工智能可以让人和机器共同工作,让生活更美好。”百度副总裁兼首席科学家吴恩达说:“今天担心邪恶的人工智能杀人魔就像担心火星上的人口过剩。在将来或许会出现这个问题,但我们还没登陆火星呢!”哈佛大学心理学教授斯蒂芬·平克说:“我们应该多多担心气候变化、核武器、抗药性致病菌、以及反动和新法西斯政治运动。我们应该担心自动化经济带来的失业工人。我们不应该担心人工智能会奴役人类。”斯坦福大学计算机科学教授塞巴斯蒂安·塞隆甚至说:“我超级热爱人工智能,对它没有一点担心,一丁点都没有。人工智能将把人类从高度重复无脑的办公室工作中解放出来,让人们得以从事真正具有创造性的工作当中。我都等不及了!”

但是普林斯顿大学计算机科学教授Margaret Martonosi:“完全无视人工智能带来的危险是愚蠢的。”加利福尼亚理工学院宇宙学和物理学教授西恩·卡罗尔说:有可能发生“严重的无法预期的后果。”,牛津大学人类未来研究所所长尼克·博斯特伦(Nick Bostrom说:“人们的确应该认真看待事情出现严重错误的可能性。”但他们没有说这种后果会严重到什么程度。

有些科学家比较详细地谈了人工智能可能带来什么样的威胁,他们列出的威胁包括:

1.对人类就业的威胁

2.人工智能将让现有系统在黑客入侵面前变得更加脆弱。复杂的网络黑客攻击让我们从网络上获取的信息不再可靠,让国家和国际基础设施薄弱不堪。

3.人类会失去对更加聪明的恶意软件和将不安全人工智能用于犯罪的控制。

4.可能出现类似影响英国脱欧公投和美国总统大选的情况。

5.成为加剧财富不均和政治极化的社会-技术推动力的一部分,而后者在19世纪末期20世纪初期引发了两次世界大战和大衰退。

6.致命武器自动系统。

科学家所列出的这些威胁都是有限的威胁,他们认为机器人只能偷偷摸摸地使坏,没有能力公开与人类对抗,不会威胁整个人类的生存。用加州大学伯克莱分校计算机科学教授斯图亚特·罗素的话说,这只是一个“偶然的价值失衡”问题。这些科学家不相信机器人能拥有神一样的威力,只要轻轻动一下手指,就能灭绝整个人类。

乔治梅森大学经济学教授布莱恩·卡普兰说:“人工智能不会比它背后的人类可怕。跟驯养的动物一样,人工智能是为了它的创造者服务。北朝鲜拥有人工智能让人们感到恐慌的原因就跟北朝鲜拥有远程导弹一样。人们对人工智能的恐慌应当仅限于此,《终结者》中的人工智能背叛人类不过是一厢情愿的想象。”莱斯大学计算工程教授Moshe Vardi说:人类丧失对机器的控制权这种危险“除了占据版面头条外,没有紧迫的现实威胁。”丹妮拉·罗斯说:“人工智能是一款强大到难以置信的工具,跟其它工具一样,它本身无所谓好坏,关键在于人们选择如何使用它。”

认为机器人只能是人的工具这种说法严重低估了未来机器人的能力。霍金不认为机器人只是人类的工具。他在接受英国《泰晤士报》来访时发出警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”

在弱人工智能和强人工智能阶段,人可以把人工智能当成工具,但进入超人工智能阶段以后,机器人就不再是人的工具了。机器人就像人的孩子,小的时候父母可以利用它,长大以后就不能再为我们所用了。它可能很孝顺,也可能不孝顺,人类完全没有办法控制。机器人智能的指数增长使它们不再是人类的工具,而是主宰人类命运的主子。

只有北约卓越网络防御中心高级研究员,爱沙尼亚信息系统机关前局长Jaan Priisalu提到了机器人智能水平的指数增长,他说:“不应该否认人工智能的指数级增长,因为无视人工智能的发展意味着将人类自身排除在规则将重新制定的世界外。”但是他没有解释什么叫“将人类自身排除在规则将重新制定的世界外。”是像当年中国被排斥在联合国之外,还是像动物被排斥在人类文明之外。

面对人工智能,人类应该怎样应对?乔安娜·布莱森说:“人类不应该陷入恐慌。”但他没有说怎样才能不陷入恐慌。很显然,如果没有明确的应对的方法,那么人类很难不陷入恐慌。Moshe Vardi希望能找到两全其美的解决方法,他说:“我们应该严肃讨论什么决定由人类来做,什么决定由机器来做。”看来他觉得只要我们规定好哪些决定不能由机器人来做,那么机器人就不敢做这些决定。西恩·卡罗尔说:“正确的做法是认真而彻底地考虑这些后果,以及如何防范它们,同时又不至于限制人工智能的发展。”但是卡罗尔没有对人工智能作认真而彻底的思考,不等于别人也没有作认真而彻底的思考。经过几十年的争论,现在答案已经很清楚,不可能找到两全其美的解决办法。人类只有两种选择,要么限制人工智能的发展,要么准备承受发展人工智能带来的一切后果。

只有Jaan Priisalu提出的应对措施是正确的,他说:“我们不应该做的是:宣布人工智能增强为非法。如果这样做了,破坏规则的人将获得极大的优势。”也就是说,他反对霍金所说的对人工智能进行控制的观点。如果我们停止研究人工智能,那就等于自毁长城,某些国家或恐怖组织会全力研究,然后用这些技术来做坏事。那么我们应该怎样做呢?