中国作家网>> 评论 >> 精彩评论 >> 正文

超级智能会让人类惨遭毁灭吗——读《超级智能》(涂启智)

http://www.chinawriter.com.cn 2015年04月23日10:20 来源:北京日报 涂启智
    《超级智能》(英)      尼克·波斯特洛姆著      张体伟 张玉青译      中信出版社出版 《超级智能》(英) 尼克·波斯特洛姆著 张体伟 张玉青译 中信出版社出版

  2009年,在某个竞技场中,瑞士研究人员放置了数百台机器人,机器人身上的程序让它们在竞技场中寻找一个浅色的圆环(实验中的食物)。这些机器人相互可以沟通,机器人会向同伴发送蓝光告诉其它机器人食物的位置。但是随着实验进行,研究人员发现某些找到食物的机器人停止闪光、独占资源——而源程序根本没有指示它们这么做。这到底是机械故障,还是机器人学会了撒谎?

  今天的计算机可以完成越来越复杂的任务,已经具备了接近人类的智能。一旦出现“超级智能”,即计算机能够自己思考而非仅仅对命令进行反应,并且计算机不仅仅在数学和科学能力上超过人类,而且在艺术创造性甚至是社会技能领域也大大超过人脑,人类享受空前便利的同时又会遭遇什么风险呢?《超级智能》对此进行思索与探讨。该书认为,人类大脑拥有一些其他动物大脑没有的功能,正是这些独特的功能使我们的种族得以拥有主导地位。如果机器大脑在一般智能方面超越了人类,那么这种新兴的超级智能可能会极其强大,并且有可能无法控制。超级智能对我们人类将是一个巨大的威胁。

  作者根据海量信息资料分析认为,与人类智能水平并驾齐驱的机器智能有相当大的可能在21世纪中叶实现,可能会更早,也可能会更晚;但是只要这种机器智能出现,就会很快出现超越人类智能水平的高级智能;这会对人类生存产生极其重大的影响,或是产生极好的影响,或是造成人类灭绝。不管怎样,这都说明我们很有必要去认真研究人工智能这个议题。

  对于如何控制超级智能,作者提出了两大路径。一为能力控制,分为四类:盒子方法(系统受到限制,只能够通过有限制的、提前批准的渠道对外界产生影响,包括物理遏制和信息遏制两种方法);激励方法(系统被放置在提供适当激励的环境中);阻碍发展(对系统的认知能力或影响关键内部过程的能力进行限制);绊网(对系统进行诊断测试,如果探测到系统有危险行为,就将其关闭)。二为动机选择,也分为四类:直接规定(系统装载直接规定的动机系统);驯化(设计一套动机系统,严格限制超级智能的目标和行为范围);间接规范(依靠间接手段来确定需要被遵守的规则和需要被追求的价值);扩增(选择一个已经具有类似人类的、友好的动机系统,对其认知能力进行提升,使其成为超级智能)。作者论说控制超级智能的方法听起来或许因为太过专业而不够通俗易懂,然而我们只要明白一点就可以了,那就是在超级智能出现之前,人类需要做好应对准备,而当超级智能出现,人类应该可以找到控制办法。

  担忧超级智能出现会给人类带来毁灭性灾难,作者并非杞人忧天。很多专家以及IT界人士表达出与作者同样的忧虑。英国物理学家史蒂文·霍金称,人工智能的完美就意味着人类的灭亡;特斯拉埃隆·马斯克也声称,人工智能的出现是在“召唤魔鬼”;比尔·盖茨也忧心忡忡:“我站在警惕人工智能的阵营一方……我很不理解,为什么会有人完全不担忧人工智能”……

  既然这么多权威人士表示出担忧,我们有必要未雨绸缪提前应对,要想到超级智能一旦出现,人类该如何控制,既充分享受其带来的便利,又能免除它给人类带来的潜在威胁,这或许也是该书警世意义所在。

  笔者对超级智能持乐观态度。首先,很多计算机科学家认为我们不会迎来注定的毁灭,相反他们质疑人类是否能够真正实现人工智能。他们认为光是理解人脑,人类已经走过了漫长的研究道路——包括意识本身是什么这个问题——更别提将这些知识用来打造一台有感情和自我意识的机器。虽然今天最强大的计算机可以用算法赢得国际象棋大赛,可以赢得竞猜电视节目,可我们还无法创作出能够写出感人的诗作,能够判断是非的机器人——要制造出完全掌握人类技能的机器人还很遥远。其次,超级智能终归属于程序系统,而不是像人一样的自由思维系统,超级智能能量始终受人控制,它并不具备自我主动开拓能力。再次,超级智能的生命取决于人的控制,假如把超级智能比作翱翔蓝天的风筝,那么人的控制就是系在风筝身上的那根线绳。风筝一旦脱离线绳,结果可想而知。

网友评论

留言板 电话:010-65389115 关闭

专 题

网上学术论坛

网上期刊社

博 客

网络工作室