人工智能正在打破战争的传统边界,美以联合军事行动中人工智能被深度应用于作战环节,引发了人工智能军事化的争议升温。从情报分析到目标打击,从技术对抗到国际博弈,这场冲突背后,是各国对人工智能军事应用的布局与较量,也让人工智能军事化的争议再次升温。 2026年3月11日,中国国防部新闻局副局长、新闻发言人蒋斌大校就人工智能军事化问题作出最新回应,强调不加限制推进人工智能军事化,将会侵蚀战争伦理与责任约束,可能导致技术失控,明确表示人工智能军事应用应坚持由人主导,反对利用人工智能谋求绝对军事霸权。 这一回应,也反映了国际社会对人工智能军事化风险的担忧。美军在此次行动中使用的人工智能系统,存在严重的伦理困境和技术隐患。 五角大楼曾要求Anthropic公司,移除其Claude人工智能模型中“禁止全自主武器”的安全限制,该公司明确拒绝,坚守安全底线,未修改相关限制条款,后被美国国防部列为供应链风险实体。 此外,美军使用的人工智能系统还存在判断过程不透明的问题,可提升情报分析效率,但分析师仍需反复验证人工智能生成的警报,且算法偏见和数据过时问题频发,伊朗南部米纳卜市沙贾雷・塔耶贝女子小学遭袭事件,初步调查与人工智能系统使用过时数据导致目标误认有关。 国际社会正尝试推进人工智能军事应用的治理工作,但暂无北约通用数据格式接口标准、欧盟强制无人交战规则的官方落地公告,北约人工智能战略也强调“负责任运用原则”,但这些规则缺乏强制约束力,能否真正落实仍存在疑问。 与此同时,俄罗斯也在加速人工智能军事技术研发,其列装的**“枞树”拦截无人机采用人工智能自主制导,可实现“发射后不管”,在实战中表现突出,进一步加剧了人工智能军事竞争的态势。2026年2月底以来,人工智能巨头与军方的合作呈现加速态势。 OpenAI不仅与北约洽谈部署至非机密网络的战略合作框架**,聚焦网络安全防御等非攻击性领域,还与美国国防部达成协议,将人工智能模型部署于机密网络;Anthropic未修改Claude模型使用条款,拒绝军方无限制使用要求。 伊朗女校爆炸事件的调查有了新进展,3月5日路透社和《纽约时报》透露,美方内部调查初步判定美军极有可能是此次事件的责任方,前五角大楼平民损害高级顾问韦斯・布莱恩特指出,此次事件是精准打击但发生了目标误认,推测与人工智能系统使用过时数据有关,这也进一步凸显了人工智能在战场应用中的风险。 当前,各国都在加快人工智能军事技术研发,中国在无人系统和数据分析等领域取得明显进步,可预见的是,未来战争将越来越依赖算法,人工智能不仅会改变战争的方式,还会重塑战争的节奏。 中国多次在国际会议上呼吁建立人工智能军事应用的国际规则,限制人工智能用于战争,但这些建议并未得到所有国家的支持,目前人工智能已成为各国军事技术竞争的核心焦点。 随着人工智能技术在军事领域的应用不断深入,如何规范其发展、规避技术风险,成为全球亟待解决的重要课题,人工智能在军事行动中的深度应用,也为各国提供了重要的参考与警示,技术的进步不应成为战争升级的推手,如何在技术发展与和平稳定之间找到平衡,考验着每一个国家的智慧。
