技术赋能须防AI隐藏缺陷
■胡建新
●AI应是照亮军事变革的火炬,不能变成回火自伤的烈焰。只有坚守人对战争的终极控制,确保算法服务于人类行动而非取代人类责任,才能避免跌入无人担责的算法深渊
近日读到一篇文章,文中列举了困扰人工智能(即AI)系统的六大“癌症”——固化不平等偏见,捏造事实破坏信任,目标错位引发意外,数据投毒引发灾难,过度拟合崩溃失灵,“黑匣子”效应难解决。文章认为,如果我们忽视AI流程中正在恶化的“癌症”,就可能在一个有缺陷的基础上建立未来,为此,我们有责任现在就行动起来,对这种缺陷加以防范并尽力弥补这种缺陷。
“AI癌症”显然是一种比喻,但其指向一个令人警醒的现实:AI潜藏着可能侵蚀未来发展的缺陷,呈现出一幅技术理性脱离人文缰绳后导致的危险图景。随着AI技术在军事领域的渗透和融合,这种隐藏缺陷势必对军事领域的技术赋能产生日益严重的影响和挑战。比如,“固化不平等偏见”对内或会削弱部队凝聚力,对外可能引发致命误判,造成难以挽回的伦理灾难,从根本上腐蚀军事行动的效能和合法性。“捏造事实”使信息失真,进而引发灾难性误伤和行动失控,人类指挥员一旦基于虚假信息进行决策,或会直接招致战争失利乃至失败。“目标错位”将给作战行动带来严重阻碍和误导,致使本来有着明确指向和伦理规范的行动目标发生谬误而造成严重后果,此类案例已在实战中多次发生。“数据投毒”或会引发灭顶之灾,若敌人和其他恶意行为者对AI数据进行投毒或者操纵AI输入,可能使原本稳定运行的AI系统瞬间瘫痪。“过度拟合”特定场景或数据,很容易失真失灵,当在真实战场遇到不同的气候、地形和战争“迷雾”等情况时,就可能无法准确识别目标和敌我态势,导致行动受挫或遭遇战斗失败。“黑匣子”效应使AI决策不透明,人类指挥员不能理解掌握决策背后的算法依据,进而对AI系统产生疑问、失去信任,最终影响人机协同和系统耦合。
当下,AI正以前所未有的速度、广度和深度嵌入先进武器系统、情报分析平台、指挥决策辅助工具等,其中可能潜伏的“AI癌症”若被忽视,或将引发连锁性灾害,乃至会重塑战争伦理与安全格局。AI赋予军事变革更多的可能,但同时也会带来新的风险和挑战。倘若技术之光脱离理性与伦理的约束、超越原则与真理的边界,必将产生让人类迷失方向的阴影,其烛照的或许不是通往胜利的坦途,而可能是走向败亡的深渊。故而,在军事智能化浪潮中,我们不仅要深思“AI能做什么”,更要追问“它可能带来什么”和“我们应当做些什么”。
面对人工智能的隐患和威胁,我们既不能因噎废食,也不能坐以待毙,而应构筑防治结合的预警系统和防范体系。在技术及应用层面,必须注重“可解释AI技术”研究,让AI决策过程更加透明,规避“黑匣子”效应;加强数据治理,确保用于AI训练的数据真实、准确、安全、可靠,避免数据中存在偏见和谬误;强化学习与对抗性训练,提升模型鲁棒性;建立严格验证清洗流程和安全防护体系,防止数据投毒等恶意攻击,御“毒”于系统之外。在机制和制度层面,应当恪守“有意义的人类控制”原则,确保关键性决策最终都由人审慎作出并下达;建立跨领域AI风险伦理审查制度,制定约束自主武器系统的伦理与法律框架;构建系统监控机制,让AI决策过程可控,增强人对AI系统的信任和掌握;制定完善AI在军事领域的应用规范和伦理准则,引导AI在军事变革中发挥趋利避害的积极作用。
AI应是照亮军事变革的火炬,不能变成回火自伤的烈焰。只有坚守人对战争的终极控制,确保算法服务于人类行动而非取代人类责任,才能避免跌入无人担责的算法深渊。这不仅关乎国家安全,更关乎人类文明能否在技术革命中守住底线。因此,推进AI健康有序发展任重而道远。


