第07版:军事论坛 PDF版下载

解放军报客户端

兵在掌上阅 亮剑弹指间

人工智能:全球战略稳定重要变量


■徐 林 卢柄池 凡华锋

自核武器诞生以来,全球战略稳定主要建立在核大国“确保相互摧毁”的核平衡法则,以及以此为基础建立的战略信任措施之上。进入新世纪,人工智能迎来新一轮发展浪潮,军事智能化应用更加广泛深入,建立在核平衡法则和战略互信基础之上的全球战略稳定也因此日益受到冲击,需要引起世界高度关注。

人工智能推动核军备升级可能冲击战略稳定。新一代人工智能作为一项战略性前沿技术,其在核武器领域的应用不可避免地推动核军备升级,并引发核力量运用方式深刻变化。当前,美、俄等核大国正在着手实施新一轮核武器现代化计划。美国计划更换或升级“三位一体”核武器系统,包括“哥伦比亚”级战略核潜艇、B-21战略轰炸机和新一代陆基洲际弹道导弹,重点就是运用人工智能提高这些武器系统的自主性和突防力。美国还通过机器学习应用和深度学习算法,提高核爆炸过程的数值模拟能力,确保其核威慑可靠性。俄罗斯确认正在研制“海神”核动力无人潜航器。该无人潜航器是一种智能化的大潜深、长航时、超高速、超大型多用途水下机器人,直指美国导弹防御系统无法触及的“盲点”和反潜作战体系的“软肋”。瑞典国际和平研究所等智库的专家认为,随着人工智能技术特别是机器学习方法不断发展成熟,新一代人工智能可能在侦察和预警系统、指挥和控制系统、核武器运载系统等领域,对核威慑与战略稳定产生深刻复杂影响。

人工智能增强常规武器性能可能冲击战略稳定。人工智能尽管在技术上还不成熟,但无人机、无人艇的“蜂群化”使用在概念上很适合对敌方核与非核机动导弹发射装置、弹道导弹核潜艇及其附属设施(如侦察、监视和预警系统等)实施先发制人攻击,显著降低对手的二次核反击能力,助推形成“单方面确保摧毁”的局面。人工智能与高超声速武器相结合则可能使情况更加复杂——高速度与自主化将使攻击速度和战争节奏产生质的飞跃,对手在无法确定攻击路径和攻击目标的情况下可能会采取最坏的反制措施,即遂行“攻击即发射”的核报复战略,这将大大降低核武器的使用门槛。同时,智能化高超声速武器也将填补核武器攻击能力的部分空白,取得战略性效用。美国《战略研究季刊》题为《人工智能——战略稳定的威胁》的文章认为,人工智能与一系列先进常规武器之间存在多方面交集,能够大幅增强常规武器的能力,进而放大先进常规武器对战略稳定的破坏性影响。

人工智能分析预测失真可能冲击战略稳定。利用人工智能技术进行数据挖掘、数据融合、情报分析,并在此基础上进行综合预测,将大幅提升情报获取和战略态势感知能力,有利于透过战争迷雾掌握战略主动。但这种分析预测要求所涉及数据与算法必须安全、准确、可控,如果算法规则被泄露,就可能被对手加以利用。弱人工智能条件下,人工智能系统的“创造力”和“能动性”对应用环境的稳定性、规则性要求较高。战场环境中,面对数据急剧增加、环境迅速变化的情况,人工智能系统将难以理解、适应,其“思考”结果有可能不是最优解甚至可能是导致失败的错误方案。此外,有研究发现,即使一些先进的算法也可以被蒙骗,人工智能系统无法分辨甚至用肉眼都很容易辨别的目标。如果对手故意暴露或隐藏某些对分析预测权重影响较大的信息,通过设计“人工智能伪装”,暴露“深度伪造”数据来欺骗人工智能,就能够破坏人工智能系统的战略态势感知信息流,导致其得出错误的战略态势感知结论。

人工智能强化进攻战略可能冲击战略稳定。人工智能作为一项基础性赋能技术,其渗透应用具有全领域、全流程和全要素的特性,这将深刻影响核大国对国家利益、国家行为、国家实力、国家间竞争的认知和判断,加剧各国在政治、军事、经济、安全等领域的竞争,促使国家间竞争性因素上升,建立战略互信的难度越来越高,一些国家尤其是大国对国际制度、国际规则的认同感下降。一方面,人工智能极大拓展了国家安全的时空领域,算法安全、数据安全等新的安全空间不断涌现,国家安全受到系统性、全局性威胁的可能性上升。另一方面,人工智能不断加快未来战争“OODA”循环,使得“初战即终战”的趋势更加明显,“即时优势”的争夺将使国家间攻防态势发生改变,进攻愈加容易,防守愈加困难。这可能鼓励有的国家采取更加激进战略,更倾向于先发制人。可以预见,随着人工智能技术不断发展,国家自身的“安全感”将不断减弱,进攻性战略会受到更多关注。

人工智能错误指挥决策可能冲击战略稳定。现代战争的“海量”数据和“秒杀”节奏正在逼近人类决策的“奇点”,人工智能介入战争决策是大势所趋。有专家乐观地估计,到2040年人工智能系统在战争中将发挥出超越人类的能力。但考虑到常规战争决策与核战争决策之间的差异,这种潜在的、未被证实的信任,即把战略武器的控制权完全或大部分交给人工智能系统,可能会带来新的更大风险。首先,当前人工智能技术的智能特性依然有赖于数据的堆叠和算力的进步,数据的量级和质量将决定智能的程度,单纯建立在模拟仿真模型和战争推演数据基础之上的人工智能系统,远未达到指挥“末日武器”的水平。其次,完全依赖人工智能技术的“人在回路外”的战争决策模式,极有可能触发人工智能对错误预警的即时反击,使人类爆发核战争的风险大幅增加。不论是1980年美军计算机芯片故障事件,还是1983年苏联导弹预警系统“虚警”事件,都充分暴露了“人在回路外”的核战争决策模式的极端危险性。随着人工智能的发展,其对人类生理、心理等不稳定因素的抵消和速度、精度上的优势,决定了人工智能与人类之间围绕自主与可控的博弈将持续存在。

您的IE浏览器版本太低,请升级至IE8及以上版本或安装webkit内核浏览器。