人工智能的未来:“天使”or“魔鬼”?

来源:中国军网综合作者:赵先刚 滕兆文责任编辑:岳修宇
2018-01-12 03:03

可以预见的风险

人工智能带给人类巨大威胁

美国“脸书” CEO马克·扎克伯格曾放言:“人类当下面临的最大威胁是什么?无疑是人工智能!”但就当前来讲,人工智能的“威胁”还不存在,因为它只专注于完成某个特别设定的任务,比如下围棋就仅仅会下围棋。而未来超过人类智慧的超人工智能具备知识迁移能力,可以充分利用已掌握的技能解决新问题,这就有可能给人类造成巨大威胁。

实现高度自主并可能“失控”。未来超人工智能开始具备自主思维意识,能够像人类一样独立思考,并自我决定如何行动。因此,自主智能机器系统虽然由人类设计制造,但它们的行为却不受人类的直接指令控制,而是可以基于在不同情境中对其所获得的信息进行分析、判断和决策,形成不需要人类介入或干预的“感知—思考—行动”模式,并最终超出创造者预料或事先控制的范围而失控。

这种高度智能化的系统还能够通过学习进行机器再造,可以快速复制或再生其他新的人工智能体。据专家推算,一个失去控制的正在自我复制的纳米机器人,完成130个复制周期只需要3个半小时,考虑到纳米机器人向外移动扩张等因素,最多只需数周就可以“摧毁”地球上的一切生物。这也就是为什么霍金多次“告诫”人们:人工智能一旦脱离束缚,就会以不断加速的状态重新设计自身。而人类由于受到漫长生物进化的限制,无法与之竞争,最终或将被取代。

遭遇非法入侵可能被“黑化”。人工智能作为一种新兴的技术领域,一般来说,没有安全漏洞是不可能的。而如果有人利用这种漏洞控制智能系统或机器人去实施破坏活动,这样的后果是极其可怕的。而且,随着人工智能的发展,其他工具包括人工智能的技术开发和复制也变得越来越容易。也就是说,未来任何人都可以使用该系统去实现自我复制或繁殖其他人工智能系统。因此,超人工智能系统一旦被非法获取或操纵,将产生巨大的破坏力量。

爆发机器战争造成武力“滥用”。未来大量智能化无人系统将运用于战场,“死伤”的主要是没有生命并可以大量再造的“智能机器”,使战争成本大大降低,并能够实现作战人员的“零伤亡”。战争的政治、外交风险明显降低,这就可能会因战争顾虑和压力减少而降低战争决策的门槛,导致军事强国在武力使用上更加随意,从而使战争的爆发更加频繁,战争从“最后的选择”转变为“首先的手段”。为此,许多科学家呼吁禁止“致命性自主式武器”的研发和使用,并警告这将引发全球性人工智能“军备竞赛”,人类社会将可能深陷战争泥潭。

轻触这里,加载下一页