“智能参谋”离我们还有多远
■宋可旸 涂一可
今年3月,美国中央司令部在空袭伊朗行动中,首次大规模使用Anthropic公司开发的Claude大模型,执行情报评估、目标识别与战场模拟等核心任务——这是迄今为止AI在实战中部署的最清晰案例;还有消息称,美战争部正与多家领先人工智能公司建立伙伴关系,以期运用AI对他国电力设施和敏感网络等关键基础设施实施自动侦察,为其地缘、政治、军事目标服务。
同样在今年初,土耳其HAVELSAN公司成功演示自主无人机蜂群系统,在模拟通信中断的情况下,该系统能自主完成目标分配与协同攻击;韩国陆军举行首次AI实兵演习,搭载人工智能系统的K-CEV装甲车在无人机和机器人协同下,自主完成排雷突破、目标识别与火力打击全流程。从“数据处理”到“作战决策”,一些以AI为核心支撑的新型作战概念,正以前所未有的速度走进现实。
但技术的每一次跃进,都伴随着新的隐忧。当大模型能够在数秒内完成情报评估与目标识别,当无人机蜂群能够在通信中断时自主协同攻击,一个根本性问题浮出水面:将决策权部分交予算法,我们是否做好了准备?那个能够辅助甚至部分替代人类指挥员进行决策的“智能参谋”,究竟离我们还有多远?我们又该如何把握“智能参谋”应用的尺度,使其始终可信、可控?请看本期解读。

Claude大模型。供图:阳明
智能决策成为各国博弈新高地
当前,全球主要军事强国正将智能决策技术视为争夺未来战争主动权的关键变量,纷纷加速推进智能模型在军事领域的实战化应用。从生成方案的“虚拟参谋”到分配资源的“智能精算师”,智能决策技术已初步实现阶段性突破,成为各国军事博弈的新高地。
在方案生成领域,混合多模型协作技术正为指挥员指挥决策提供全新视角。2026年3月,在冰岛举行的一次竞赛中,乌克兰军方团队开发的ODIN多智能体AI系统,从33支参赛队伍中脱颖而出。该系统可自动融合多源情报数据、自适应优先级排序,并生成涵盖动能、非动能与网络空间的多域行动方案。研究显示,AI用于直接生成行动方案时效果有限,但其在扮演“质疑者”角色时价值凸显——它能够快速解构参谋团队已形成的方案,指出关键假设、潜在风险和逻辑薄弱点,促使参谋人员重新审视判断。这种“AI质疑、人类决策”的协作模式,将参谋人员从惯性思维中解放出来,推动决策过程更具批判性和适应性。
在资源分配领域,智能模型正成为优化战场资源配置的“精算师”。美国海军陆战队启动Project Dynamis项目,将Maven智能系统部署至远征部队,融合舰艇与卫星实时数据,用于辅助评估打击方案。据公开信息显示,该项目有助于缩短特定环节的决策周期。与此同时,以色列国防部授予Elbit Systems公司超1亿美元合同,开发“Tzayad”第五代数字化C4ISR系统。该系统集成AI辅助决策模块,可在战术边缘完成目标优先级排序,提出火力分配建议,目前正处于列装推进阶段。
在物理世界适配方面,智能系统正从“实验室空想”走向“战场现实”。韩国陆军2026年2月举行的首次AI实兵演习中,K-CEV无人装甲车完成实战化演练。该系统集成360度态势感知与AI目标识别能力,可在雷场、伏击区等高风险环境中自主前出,为有人部队开辟安全通道。演习中,K-CEV无人装甲车与无人机、机器人协同,自主完成了排雷突破与目标识别全流程,验证了智能系统在真实战场环境下的适配能力。
值得注意的是,这场智能决策博弈已上升至国家战略层面。据公开信息显示,美西方国家已启动多项相关研究计划,试图构建认知域智能决策链路。日本防卫省发布相关推进方针,将目标探测识别、情报分析、指挥控制等领域列为优先方向。北约相关规划文件也明确提出,需构建联盟级的智能系统测试评估框架。众多国家级项目的密集落地,标志着智能决策技术已从分散的技术演示,加速走向与各国军事体系深度融合的关键阶段。
尚在“可用”与“可信”之间徘徊
尽管在技术上实现了诸多突破,但必须指出的是,“智能参谋”目前尚在“可用”与“可信”之间徘徊。理论层面的不确定性输出与军事决策的确定性要求之间的矛盾,构成了从“实验室”走向“战场”的最大鸿沟。
第一是可靠性。大模型的决策能力,本质上是训练数据的“投影”。当训练数据携带“偏见”或混入噪声,模型会放大这些偏差。英国国防部发布的技术报告明确指出,训练数据的代表性不足可能导致模型在复杂战场环境下误判目标,且目前缺乏统一的性能指标来量化此类风险。
更严峻的是“幻觉”问题。当前的智能模型往往“纸上谈兵”,看似精通策略,实际生成的方案却难以落地,甚至频频下达违背战场常识的错误指令。例如,在需要优先拦截高威胁目标的防空任务中,模型可能因训练数据偏差而将火力分配给次要目标,可靠性大幅下降。大模型的“黑箱”特性,使得指挥员无法明确“它为什么这样决策”,这在要求绝对严谨的军事领域是不可接受的。
第二是准确性。武器目标分配涉及火力资源、威胁等级、地理环境等多重约束。当前大模型对约束条件的建模能力有限,在复杂场景下常出现“满足部分约束”而“忽略关键约束”的情况。在小样本场景下,模型准确率出现明显下降,泛化适应能力依然不足。国际上的相关研究表明,即使经过专门训练的模型,在面对轻微扰动或新型攻击模式时,性能仍可能出现波动。美国国防部高级计划局的GARD项目专门针对此类问题,开发了虚拟测试平台和基准数据集。
第三是验证性。现有验证平台场景单一、动态性不足,难以复现电磁对抗、多批次突袭、气象变化等复杂条件。北约2024年修订的AI战略明确提出,需构建联盟级的AI测试、评估、验证与确认框架,并解决测试环境碎片化问题。同时,不同研究团队采用不同指标,导致算法性能难以横向对比。相关分析认为,缺乏标准化的持续基准测试机制,使得模型在部署后的性能变化难以被及时发现和修正。算力支撑不足也导致验证效率有待提升,算法迭代速度受限。
技术的优越性往往伴随着安全的脆弱性——当“智能参谋”以惊人的效率处理情报、分配火力、推演方案时,它也在无形中为对手打开了全新的攻击窗口。在网络空间,敌方可能渗透指挥链路,篡改AI输入数据甚至接管系统,让“智能参谋”从“友军”沦为“内鬼”;在电磁域,AI依赖的通信、算力与感知链路一旦被切断或干扰,系统将直接失效,让“最强大脑”沦为“睁眼瞎”;在感知层,对抗样本攻击可通过精心伪装的假目标、假信号欺骗AI传感器与识别模型,让“算法之眼”与真实战场截然相反,其建议沦为致命的误导。
构建人机协同的“信任链条”
可靠性、准确性、验证性、安全性——这几道关口环环相扣,其中每一道关口,都足以将“智能参谋”挡在实战门槛之外。未来的破局之路,需在技术融合、模式重塑与标准验证上同步发力,构建起人机协同的“信任链条”。
技术路径上,需走向“规则约束”与“智能辅助”的深度融合。单纯使用智能模型生成的战场方案“灵感火花”频闪,却难以保证逻辑严谨。更优的做法是用智能模型将自然语言指令转为标准机器语言,由传统规划算法进行逻辑校验与可行性推演,这既能发挥大模型的语义理解优势,又保留了传统算法的逻辑严谨性。同时,还应通过集成地理信息系统、距离计算器等外部工具,融合视觉、空间感知能力,发展多模态模型,让智能模型从“空想”变为“实算”,确保生成的方案实际可行。
作战模式上,需明确“人机分工”的边界。智能模型应定位为“参谋”而非“指挥员”,仅负责提供多方案建议和潜在风险提示,由人类指挥员保留最终决策权。此外,还应建立“决策日志”系统,系统全程记录依据和路径,便于人类追溯验证。
验证体系上,需建立涵盖准确性、稳定性、实时性、可追溯性的标准化评价指标体系。搭建适配智能模型的仿真测试平台,平台支持复杂电磁环境与动态态势生成,让算法在具有随机性的“准战场”中接受检验,避免因训练数据单一而陷入“高分低能”的评估陷阱,让智能模型面对不同战场环境也能游刃有余。
技术融合解决“会不会”的问题,模式重塑解决“谁做主”的问题,验证体系解决“信不信”的问题——这三大支柱共同指向一个目标:构建多层次、可靠性强的保障体系,让智能模型的“不确定性输出”逼近“确定决策”的边界,将“决策偏差”控制在可接受范围,让“不透明决策”透进一缕可追溯的光。
从“可用”到“可信”,“智能参谋”的进化过程没有捷径可走。我们必须清醒看到,智能模型的“推理”本质是概率生成,“理解”本质是模式匹配。AI归根到底是一种益智增强的工具——它用强大的信息整合能力辅助判断,用实时反馈能力提示风险,而最终决策权始终掌握在指挥员手中。智能决策的到来不可逆转,唯有构建可信、可控、可靠的人机协同生态,才能真正释放实战潜能。


