无人作战:谁有最终“开火权”

来源:中国军网-解放军报作者:赵先刚 李植责任编辑:李文慧
2017-08-11 10:04

失控风险+伦理约束——

必须保留最后“拔插销”的权力

当前,各类无人作战平台主要在后方人员的操控下,以“半自主式”模式单独或少量协同执行任务。但随着无人作战力量规模化运用,这种模式将难以应对复杂多变的战场环境,容易错失战机、制约作战效能发挥。

研究表明,一个操作手同时控制两台机器人时,会使其性能平均降低50%。这就需要赋予无人作战系统较高的自主性,能够基于人工智能进行自动搜索、跟踪目标,自主识别环境选择机动路线,独立完成侦察、定位、攻击等任务。高度智能化有时可能是高度“傻瓜化”,存在因系统失效而失控的风险,特别是复杂战场环境下,更容易出现识别错误、通信降级甚至被敌电磁、网络攻击后“倒戈反击”等。

从2005年伊拉克战场上美军“剑”战斗机器人无故将枪口指向己方指挥官,到2011年伊朗捕获美军RQ-170“哨兵”无人侦察机,无人作战系统失控风险一直伴随着无人作战的运用。

人与武器装备的关系,不仅是作战问题,更涉及战争伦理问题。如何保证攻击目标的合法性?在出现对平民目标攻击时,谁愿意承担作战风险并合理区分责任?这都是无人作战系统运用中涉及的战争伦理问题。同时,人们也担心,一旦完全自主化无人作战系统的智力超过人类,将可能上演真实版《终结者》的场景,人类被完全排斥在“作战链”之外而束手无策,这可能是灾难性的。

正因如此,无人作战仍需“人在回路”,留在作战“控制圈”内,并保留最后“拔插销”的权力。目前,美军在研制自主化武器系统时,为防止因其失效导致意外交战,要求“必须设计为在发挥效能时,允许指挥人员或者操作人员行使适当层级的判断”,并能够在必要时激活或者解除系统功能。

制图:侯继超

轻触这里,加载下一页