金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!” 金一南将军一向语惊四座,这一次,不是谈战争,不是谈战略,而是直指人类命运的核心命题。 他说,未来对人类威胁最大、最可怕的,不是核武器,而是AI技术。 核武器至少还有按钮,有预警,有“最后一道防线”。 而AI?你不知道它什么时候动手,更不知道它听谁的命令,甚至不确定它是否还听人的话。 这不是科幻小说,不是编剧脑洞,而是真真切切发生在现实世界的技术革命。 2025年5月,美国空军用X-62A战斗机完成了一场震惊全球的对抗实验。 五场模拟空战,AI以5比0完胜顶级飞行员。 五角大楼给这套系统起了个名字,叫“空战演进”,但所有人都知道,这不仅仅是演进,更是范式的彻底颠覆。 而这场技术风暴,不止刮在实验室,更刮进了战场。 俄乌冲突中的AI无人机群,早已不是军演层面的“未来项目”,而是实打实的前线利器。 蜂群式自杀无人机悄无声息地穿越雷达死角,锁定目标后自动攻击,连指令都不必等。 乌克兰用FPV无人机反击,精准摧毁俄军坦克,背后同样是AI算法在实时运算路径和破坏力。 黑海舰队被击沉的那天,世界军事史翻开了新的一页:战争不再需要人类下场,甚至不再需要人类指挥。 问题是,这种战争,你怎么还手? 你不知道是谁按下了发射键,不知道指令源自哪里,甚至不确定那是不是人类下的命令。 AI的攻击是匿名的,是无国籍的,是无情的。 核武器至少留下放射性尘埃,AI攻击连证据都不留。 没有弹道,没有热源,没有“敌方”,只有一种你根本无法报复的沉默杀意。 这才是金一南将军所说的“真正的恐怖”。 更可怕的是,这种技术正在全球蔓延。 不仅美国、俄罗斯,中国、以色列、土耳其,连一些二线军事国家也在竞相投入AI军备竞赛。 联合国公布的数据已经无法掩盖现实:全球已有89个国家组建了AI作战部队,这个数字是拥有核武国家的四倍。 而且不同于核武器的高门槛、强管控,AI的门槛在逐年降低,训练一个“杀人算法”,或许只需要一台高性能电脑和一些开源代码。 核武器是国家的象征,但AI武器,很快就会成为恐怖组织的宠儿。 这不是战争的升级,而是战争逻辑的彻底改变。 过去的战争讲究制衡,你有核我也有核,彼此都怕打破平衡。 现在的AI战争,是算法之间的零和对抗,技术领先一秒,就能决定胜负。 更关键的是,这种战争没有真正的“停战键”。 AI的自主性意味着它可以在没有人类干预的情况下继续作战,它不会考虑政治、外交、人道主义,它只会执行任务。 一旦某种攻击模式被错误地训练或投放,后果将不堪设想。 而在民用领域,AI看似带来的是便利、效率和未来感。 深圳的大疆工程师在用它种地灭火,上海的医院在用它识别癌细胞,柏林的科技展上,“AI Your Life”成了最热口号。 但谁又能保证这些技术不会转化为武器? 2020年联合国报告就曾指出,土耳其制造的Kargu无人机在利比亚战场上,首次实现了AI自主攻击。 金一南将军的发言,之所以引发震动,不在于他用了多么惊悚的语言,而在于他说出了一个所有人都在回避的问题:AI带来的不是选择,而是倒计时。 2025年7月,中国国务院通过了《“人工智能+”行动意见》,教育部也发布了中小学AI教育指南。 看上去,中国在努力追赶,也在试图规范。 但这场竞赛不是你愿不愿意参与,而是你有没有资格生存。 美国的AI风险投资在2024年突破1370亿美元,占全球三分之二。 中国虽然在开源生态上跃居世界第四,但从资本、算力到标准制定,仍有不小差距。 AI军备竞赛,早已取代核军备竞赛,成为大国战略的第一优先级。 联合国在日内瓦的会议上,关于AI武器是否应禁用争论至今无解。 中国呼吁制定全球AI安全规范,而美国、俄罗斯、印度等国则明确反对AI禁令。 你说它是一场对话,其实更像是一场没有裁判的拳击赛。 大家一边谈规则,一边加码投入,真正的赢家从来不坐在谈判桌上,而是在训练算法。 金一南将军的这番话,是警示,更是质问:技术越强,人性越脆,我们准备好了吗? 我们是否能建立一套全球AI控制机制,像当年管控核武那样,把技术关进规则的笼子里? 人类曾靠原子弹冷静下来一次,但这次,我们还有第二次机会吗?
中国在解放台湾的战争中,美国一定会插手,而中国的这场收复台湾的战争中,不可能向朝
【3评论】【9点赞】