超越人类智能的可能与灾难
读尼克•波斯特洛姆《超级智能》
2015-02-26    作者:曾靖皓    来源:上海证券报
分享到:
【字号

作者:尼克·波斯特洛姆
出版:中信出版社
    如果真的出现超越人类智力水平的生命体或物质,它会以怎样的方式出现,人类的命运将会如何?或许对大多数人来说这样的问题过于科幻,遥遥无期而不值得去过多思考,至少部分人会认为这不应放在一个严肃的科学命题的角度来讨论。但是,事实情况可能并非人们想象的如此乐观。牛津大学的学者尼克·波斯特洛姆在《超级智能》中从科学角度全面论述了超级智能出现的可能与形式,以及它对人类社会可能带来的影响和应对方案。从波斯特洛姆的论述来看,超级智能已不再只是影视和文学中的想象物,而是一种近在咫尺的可能,他由此认为,我们必须对超级智能的产生有深入的思考和认识,如果只是坐视它的出现而毫无准备,那么人类社会和人类本身的命运将面临极大的挑战。

    留给我们的时间不多了

    自从现代计算机发明以来,人工智能概念在上世纪五十年代很快被提出,作为一种尖端科技,制造与人类智力水平相当的机器或软件一直在缓慢而艰难的推进,中间曾经历两次大的起伏。一次是在上世纪七十年代,由于硬件技术的限制,大规模数据存储和加工都远远跟不上人工智能理论的需求,科学家和投资人对研究的未来变得异常悲观,而在计算机技术快速发展后的八十年代末,由于在可控成本内基本上只能实现运行单一程序的小规模系统,让人工智能研究再次陷入低潮,直到九十年代才缓慢复苏。

    虽然研究进程磕磕绊绊,但波斯特洛姆还是向我们列举了诸多人工智能上的成就,比如1997年击败国际象棋世界冠军卡斯帕罗夫的深蓝,自动出入境程序中的人脸识别系统,还有美国军队在海湾战争中运用的智能计划日常安排程序等等。不过这些成就都有致命缺陷——此类独立系统都只能在有限范围和领域内实现单一的认知,无法像真正的人类智慧一样具有普遍的问题解决能力,这类系统所以也被称为“弱人工智能”。

    那么,是否有可能获得具备人类智能水平的“强人工智能”呢?波斯特洛姆给出了肯定的回答。他认为,计算机硬件技术一直保持着高速发展,而且很多领域呈几何增长态势,并且单一系统的人工智能应用已比较发达,延伸和扩散得很快,再加上软件工程和计算机神经系统科学等领域的突飞猛进,今天人工智能发展的成熟度整体上已很高,在未来40年内会有50%的可能出现等同人类智能的系统,最晚也会在本世纪末出现。而从“强人工智能”到超级智能的出现会有三种情况:一是瞬间爆发,也就是在短短几分钟,几个小时,几天的时间内,人工智能会突破“跨界点”,之后将完全按自己的想法行动;二是缓慢爆发,跨界时间会被拉长到几十甚至上百年。三是温和爆发,也就是中等时间长度,预计爆发时间在几个月或几年内。波斯特洛姆发现,智能的增长率与智能爆发的反抗度成反比关系。反抗度也就是智能水平增长及实现环境的阻碍,在一般情况下,在越接近人类智能水平时反抗度越高,而越过这个坎人工智能的增速将呈现下坡式的加速状态。所以达到人类智能水平后出现超级智能的时间最有可能的是瞬间和温和两种,而不是大家认为最有可能的缓慢出现。据此而论,留给人类的准备时间其实并不多了。

    如何以及迈向怎样的超级智能

    波斯特洛姆认为,超级智能的实现路径决定了最后它会以何种形式出现,也决定了它所带来的问题和我们可能面临的机遇。而就目前的技术水平而言,有五个通往超级智能的路径,一个是狭义上的人工智能,即通过编写完全模拟人类思维的程序,并兼具学习进化能力。这种方式最大的关键在于遗传算法对计算机能力的需求和计算机技术的发达程度,只要这两个关键因素得到突破,这将是最可能在瞬间完成跨界的方式之一。这种方式也留下了一个契机:无需模仿人类心智,也就是说对于人类情感无能为力,如何赋予其道德情感,这会是个巨大的问题,也为人类如何挑战留下了机会。第二种是全脑仿真,通过精细扫描人类大脑,将原始数据输入计算机,然后构建起一个完全模仿人类大脑的智能程序,这其实是前一种方法的延续,其问题与挑战也类似。第三种生物认知,通过人工育种实现优生来求得智能上的突破,显然这种方式不仅面临极大的道德挑战和伦理风险,且耗时非常长,不确定性也非常多,实现的可能性最小。第四种是人脑与计算机交互,植入技术是最常见的交互方式,这极为复杂,且可替代性很强,所以也不理想。第五种是通过网络和组织让人类的大脑相连,在适当时候这种网络会成为集体超级智能,比如互联网,这种方式最不确定,无人知晓其确切原理,只能靠机缘。

    不难发现,最有可能出现的超级智能是人工智能和全脑仿真,尤其是前者。那么最后会得到何种超级智能呢?波斯特洛姆认为有三种,高速、集体、素质超级智能。由于网路和组织方式获得超级智能难以实现,最终我们可能见到的是一个比人类更为聪明,并且结算能力超快的智能体。

    问题及应对

    由于超级智能出现的时间可能较短,在世界范围内可能只有单一项目会突破“跨界点”,那么也就是只有一个单一的超级智能体会拥有决定性战略优势。先不说超级智能对社会、经济、人类位置带来的影响,它可能的最大威胁是导致地球上智能生命的灭亡或使其失去发展潜能,在波斯特洛姆看来这已不是妄谈。因为超级智能的突然出现是缺乏人类情感和最终的价值观体系的,在此情况下超级智能自身存在的目标可能是随机或简单的,但有一点可以确定,即出于工具性目的,它将会把无限攫取资源看成自身目标的保障,占有和消耗资源最多的人类无疑会在逻辑上成为被限制的“物”。

    波斯特洛姆通过背叛转折和反常目标实现形式来论证了这种可能的必然性。他提出,要克服这个结果,只有在超级智能出现以前做好准备,对其可能出现的能力设法预防性控制,对其动机选择设法限制。能力控制有遏制系统性能和信息传输的盒子方法,采取代码奖赏使其目标循环的激励方法,以及设置绊网探测危险行动后关闭的方法。动机限制则可采取直接或间接的规则载入,或在选择可能的超级智能体前,将其设置为类似人类和对人类友好,或者直接限定超级智能体突变前的目标。

  凡标注来源为“经济参考报”或“经济参考网”的所有文字、图片、音视频稿件,及电子杂志等数字媒体产品,版权均属经济参考报社,未经经济参考报社书面授权,不得以任何形式刊载、播放。
 
集成阅读:
· 与扎克伯格一起读书 年轻CEO的新年计划
· “不读书”与数字化时代的读书
· 叶华《画笔记:战争•人》读书会
· 扬•马特尔与总理的寂寞读书会
· 读书应成为一种生活方式
 
频道精选:
· 【思想】对银行违规收费开刀意义非凡 2013-06-14
· 【读书】珠峰哲理的经济分析 2015-02-25
· 【财智】多券商交易系统故障 凸显服务管理不足 2014-12-05
· 【深度】钢铁,一个冬天的故事 2015-02-26
 
关于我们 | 版权声明 | 联系我们 | 媒体刊例 | 友情链接
经济参考报社版权所有 本站所有新闻内容未经经济参考报协议授权,禁止转载使用
新闻线索提供热线:010-63074375 63072334 报社地址:北京市宣武门西大街57号
JJCKB.CN 京ICP证12028708号