美国战争部长赫格赛斯今天发文说:“本周,人工智能公司Anthropic 展现了傲慢和背叛的精髓,同时也为如何与美国政府或五角大楼做生意树立了反面教材。 这话说得够狠,但咱们得看清楚,到底是谁在“傲慢”,谁在“背叛”。Anthropic这家AI公司,手里握着克劳德模型——目前唯一被允许接入五角大楼机密系统的商业AI,能处理美军最高级别的敏感情报,甚至协助过今年1月抓捕马杜罗的军事行动。结果呢?公司发现自家AI被拿去打仗,居然跑去质问五角大楼“你们用我干啥了”。 五角大楼的要求简单粗暴:要么完全开放,允许军方用于“所有合法用途”,要么滚出供应商名单。可Anthropic死活不肯松口的两条红线是什么?一是不能用于完全自主武器,二是不能对美国公民搞大规模监控。赫格赛斯觉得这叫“背叛”,可换个角度看,这不叫有底线吗? 最后通牒下得跟电影似的——2月27日下午5点01分之前必须答复。军方大佬直接放话,要么配合,要么被踢出局,还要动用《国防生产法》强制他们服从。这法律上次启用还是新冠疫情期间,现在拿来对付一家美国本土AI公司,至于吗? AnthropicCEO阿莫迪的回应更硬:“我们不能昧着良心满足他们的要求”。他说现在的AI再先进,也完全不足以支撑完全自主武器的运作,在生死攸关的打击任务中,AI一旦出幺蛾子,误伤、任务失败、冲突升级,哪条后果扛得住? 五角大楼那边气得跳脚。副部长埃米尔·迈克尔直接在社交媒体上开骂,说阿莫迪是“骗子,还有上帝情结”,指责他“只想亲自掌控美国军队”。这话翻译一下就是:你一个拿钱干活的,凭什么教我们怎么打仗? 最讽刺的是,特朗普亲自下场了。27日直接在Truth Social上发文,说Anthropic犯了“严重错误”,下令所有联邦机构逐步停用这家公司的产品。赫格赛斯跟着宣布,把Anthropic列为“供应链风险”——这个标签以前只用于被认为与外国对手有关联的公司,从来没用过美国企业头上。 什么叫“供应链风险”?就是所有跟军方做生意的承包商、供应商,都不得再与Anthropic有任何商业往来。赫格赛斯那句“更好、更爱国的服务提供商”,直接把不听话的踢出爱国者行列。这帽子扣的,比代码还精准。 可OpenAI的奥特曼这次站队Anthropic。他说五角大楼不该拿《国防生产法》威胁这些公司,只要遵守法律和行业共同坚守的“少数红线”,企业有权利选择怎么合作。谷歌和OpenAI的330多名员工联名发公开信,标题就叫《我们不会被分裂》,坚决支持拒绝“国内大规模监控”和“无人类监督下自主杀人”。 赫格赛斯1月份就放过话,说国防部不得采用“融入意识形态调校”的AI模型,必须使用“不受使用政策限制”的技术。他原话是:“我们不会采用那些不允许你打仗的AI模型”。这话说到根子上了——不是要遵守什么伦理,是要能打仗,怎么打都行。 可Anthropic担心的不是打仗,是怎么打。AI如果自己决定目标、自己扣扳机,那战场上死的谁负责?如果AI监控全美民众的通讯,分析谁“不忠诚”,那这还是美国吗?阿莫迪上个月写过,一个强大的AI“可以衡量公众情绪,发现正在形成的不忠迹象,并在它们壮大之前将其扼杀”。这话听着像科幻片,可离现实多远? 现在结局定了——Anthropic保住了底线,丢了2亿美元的合同,还被贴上“供应链风险”的标签,变相封杀。五角大楼得到了什么?一个“更好、更爱国”的服务商,可其他AI公司会怎么想?下次军方提要求的时候,谁敢说“不”? 乔治城大学那个专家说得明白:“此事没有赢家,只会让所有人心里都不舒服”。可真正不舒服的,恐怕不只是这两家。当政府可以随便给企业扣“不爱国”的帽子,当法律程序走不通就用行政手段硬来,所谓的契约精神还剩多少? 那些在Google、OpenAI签了公开信的员工,担心的不只是AI伦理,更是这个国家对待异议的方式。赫格赛斯说“此决定为最终决定”。可有些事,最终了,才是开始。 各位读者你们怎么看?欢迎在评论区讨论。
