人工智能的深度介入正在改变传统战争的作战模式,美国与以色列于2026年2月28日对伊朗发动的联合军事行动中,AI技术被应用于作战环节,成为重要的辅助工具,也让这场军事行动成为AI军事应用的重要案例,引发了关于AI是否主导战争的广泛讨论。 此次美以联合军事袭击,美方行动代号为“史诗级怒火”,以方行动代号为“咆哮的狮子”,其中以“沉默圣城”为代号的斩首行动全程耗时11分23秒,相关信息显示该行动实现了目标精准清除、零伤亡、附带损伤为零的战果。 有相关分析称,此次行动的核心作战技术为Claude3Opus大模型+PalantirFoundry国防平台的AI组合,该体系接入了美军中央司令部(CENTCOM)作战工作流的JADC2体系,这也被部分观点称作人类历史上第一次由AI完全主导的杀伤链。 从公开信息来看,美军在此次对伊军事行动中,确实将AI技术应用于情报评估、目标识别、战斗情形模拟等环节,Anthropic公司的Claude工具即便在与五角大楼关系紧张的情况下,仍被美军指挥官用于上述作战辅助工作。 美国中央司令部也在行动中运用AI系统处理各类情报,借助AI的高效数据处理能力,缩短了目标分析的时间周期,提升了作战效率。 以色列在人工智能军事应用方面早有技术积累,其国防军此前在加沙冲突期间便曾使用人工智能系统分析卫星图像和情报数据,相关技术也被应用到本次对伊朗的军事行动中,进一步提升了作战的精准度。 尽管AI技术在此次美以对伊军事行动中被深度应用,但关于“AI完全主导战争”的观点仍存在广泛争议。事实上,当前AI在军事领域的应用仍处于人类主导、AI辅助的阶段,人类距离让AI独立全权指挥战争仍有很长的距离,这不仅是技术层面的问题,更有人类对AI失控的顾虑与考量。 AI技术在军事领域的大规模应用,也让其潜在的风险受到关注。当前AI智能体技术的发展仍存在涌现性风险,这类事前难以预测、事后难以复现的系统错误,让外界对AI在战场中的应用隐患产生担忧,也让AI军事应用的安全规范与边界成为全球讨论的核心话题。
