AI与战争如何“相爱相杀”?

来源:科技日报作者:张 强责任编辑:王俊
2017-02-22 16:24

据报道,俄罗斯军方目前正在应用人工智能和大数据技术,测试用软件代替士兵做出作战决策,以应对迅雷不及掩耳的军事打击。对盛产黑客和数学家的“战斗民族”来说,将机器和程序用于作战毫不令人意外,将人工智能(AI)应用于战争始终是人们关注和争议的焦点。

对此,军事专家李路介绍:“机器自主启动防御反击模式,在技术上并无难度。事实上,在众多防空、反导预警体系中早已开始应用。目前,机器之间已实现基于规则的多平台协调,许多防空和导弹防御系统的操作人员与系统通过协作并识别和确认敌方目标后,发射自主拦截器,随后系统自主探测并截获目标。”

国防科技大学军事专家石海明副教授告诉记者:“在智能化战争时代,智能化系统应该是对人的补充,人工智能更大的价值是从高层级介入战争,协助作战指挥和控制。”

智能化战争帷幕已渐拉开

“目前看来,尽管信息化战争还在军事领域主导,但智能化战争的帷幕已逐渐拉开。”石海明指出,将人工智能应用到作战上已有先例,层出不穷的武装机器人系统和应用广泛的无人机就是最明显的例子。“在大国角逐的重要空间,表面上看似风平浪静,但各种运用尖端科技的无人化、智能化作战武器与平台已越来越多。”

例如,曾在多艘美“尼米兹”级核动力航母上成功起降的X-47B察打一体无人机,既具有极强的隐身性,又完全由电脑操控而无需人工干预。

石海明表示,近年来,人工智能的发展方向出现较大变化,即采用大强度计算和数据驱动来发展智能。如果计算机系统能基于大数据和深度学习,对人类的价值就会很大。这一进路与以往科学家试图模拟人脑的思维过程来打造人工智能,大不相同,传统进路进展缓慢。

对此,李路介绍,大数据方面,目前还未听说将其用于实战的官方报道。即使是北约组织的内部演习中,也尚未使用大数据技术进行分析决策。但是在非战争军事行动中,大数据技术早已广泛使用。尤其是反恐领域,利用大数据筛查可疑分子、降低恐袭风险已经是日常反恐的重要手段。

2013年波士顿马拉松爆炸案中,恐怖分子以高压锅和背包为作案工具展开袭击。事后,有人在网上同时搜索上述两种工具,警方立即利用大数据技术捕捉相关信息,进而调查搜索者的目的,大大降低了恐袭风险。

机器尚不能完全替代人类决策

据俄军方披露,有专家认为前述应用程序有助于进行独特的作战策划,并能推演现代化海战武器的使用情况。机器真的可以代替人类做出作战决策吗?

李路介绍,在战争指挥和作战规划方面,人工智能不断取得突破。以前规划一次20分钟的大型空中作战行动一般需要40—50人耗时12小时,而采用自主技术之后该规划有望在1小时内完成。

记者了解到,在人工智能介入战争指挥方面,美国国防高级研究计划局(DARPA)研制的“深绿”系统最为出名。五角大楼试图仿制曾战胜人类棋手的超级计算机“深蓝”,利用计算机造出一个智能化辅助系统,帮助指挥员决策,并随着作战进程不断调整和改进,使作战效能大幅提高。但经过多年研制后,该项目的主体目前已经暂停。

对此,石海明指出,目前,最需要作战指挥控制的还是在较高层级的指控系统。美军推出的第三次“抵消战略”也认为,以智能化军队、自主化装备和无人化战争为标志的军事变革风暴正在来临。为此,美国将通过发展智能化作战平台、信息系统和决策支持系统,以及定向能、高超声速、仿生、基因、纳米等新型武器,到2035年前初步建成智能化作战体系,对主要对手形成新的军事“代差”。到2050年前智能化作战体系将发展到高级阶段,作战平台、信息系统、指挥控制全面实现智能化甚至无人化,实现真正的“机器人战争”。

“当然,人工智能要实现与作战系统较高层级的融合,必须结合更多的智能技术,例如超级电脑‘沃森’的基于自然语言的知识获取和统计推理技术,超级电脑‘深蓝’的基于规则驱动的暴力搜索技术等。”石海明说。

然而,李路认为,这并不意味着在重要攻击行动中,机器可以完全替代人类决策。以当前的人工智能水平,机器对目标和威胁的判断还相对简单初级,对临界点的判断可靠度难以保证。

李路举例说,2016年6月,英国某潜艇上的一枚三叉戟Ⅱ-D5潜射洲际导弹误射向美国本土,情急之下英国将该情况通知美国。美得到消息后却发现,本应自动搜索、自动响应的本土反导系统却毫无反应。好在导弹并未安装核弹头,最终在美西部无人区上空自毁。

“假如当时自动反应机制及时反应并运行了,则理应触发核报复机制,美国的核弹将会自动射向英国,后果将不堪设想。因此,在重大问题上机器替代人做出反击决策,可能还有较长的路要走。”他说。

人工智能武器化争议不断

李路指出,机器人替代人来执行作战任务已经成为现实。现在的争论焦点在于,是否允许致命自主武器系统。

他介绍,目前国际人道法律对此类技术没有任何具体规定,国际社会也未明确支持一个限制或禁止此类武器系统的条约。1949年签署的战争人道主义《日内瓦公约》要求任何袭击需要满足“军事必须、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡”3个条件。当前自动武器很难做出这些主观判断。学界对此也争议不断,许多重量级科学家反对人工智能武器化。马斯克和霍金等人就曾签署过一封公开信,呼吁禁止自动化武器。他们甚至称完全人工智能的发展可能招致人类历史的终结。

“在无人化战争中,作战主体远离战场,无人化武器以一种‘非人性化’的方式杀人,像电子游戏一般视生命为草芥,没有承担战争危险的伦理性,也没有对战争苦难的情感体验,‘隔离因素’将战争的发动者与实施者区分了开来。”对此,石海明也担忧,“也正因此,有关战争责任的伦理问题就出现了,到底参战的自主机器人是不是战斗员?又应当承担何种战争的责任?”

石海明介绍,早在2008年,美军海军研究办公室就发表一份报告认为,运用于战争的自主机器人无法承担法律责任。

“的确,目前机器人还无法分辨平民和士兵,当然无法为自己的行为负责。如果军用机器人自己没有办法承担责任,是否需要其‘代理人’对其战争行为负责呢?这又引发了新的问题,谁是无人化战争中军用机器人的‘代理人’?到底是程序设计者呢?还是战场指挥官呢?相关战争责任的追究显然已变成一个十分棘手的问题。”他说。

李路也指出,随着技术的发展,相关争论很可能会越来越现实和激烈。但根据历史经验来看,人类的理性恐怕很难阻止新技术军事化的步伐。军事领域自主化时代的到来可能只是时间问题。

轻触这里,加载下一页