一场围绕 AI 军事应用伦理的激烈博弈正在五角大楼上演,美国国防部(五角大楼)与人工智能巨头 Anthropic 因技术使用的伦理限制陷入僵局,而马斯克旗下的 xAI 公司则趁虚而入。
据《纽约时报》率先披露并经 Axios 周一证实,美国战争部已正式与 xAI 公司达成合作协议,将其旗下 Grok 聊天机器人集成至美军机密军事系统。
这一举措意味着,Grok 将成为第二款获准接入军方最敏感网络的 AI 系统——该网络主要用于情报分析、武器研发及战场作战等核心军事场景。
在此之前,Anthropic 公司的 Claude 模型是唯一获此资格的 AI 系统,其通过与 Palantir Technologies 公司的合作,长期为美军机密平台提供支持,甚至在上个月抓捕委内瑞拉总统马杜罗的行动中发挥关键作用,成为已知首次直接参与军事行动的人工智能。

五角大楼与 xAI 的协议,恰好在陆军部长皮特·赫格塞斯召见 Anthropic 首席执行官达里奥·阿莫迪的关键节点达成,预计周二在五角大楼举行的这场会晤,气氛早已降至冰点。
据 Axios 报道,赫格塞斯将在会晤中向阿莫迪发出最后通牒,给出非此即彼的强硬选项:要么同意在取消所有额外保障措施的前提下,让 Claude 模型适用于“所有合法用途”,彻底放开使用限制;要么就面临严厉后果,其中最具威慑力的便是被列为“供应链风险”。
这一标签通常用于定位与外国敌对势力有关联的实体,一旦贴上,意味着 Anthropic 将彻底失去与美军的所有合作机会,甚至可能面临更广泛的制裁,而双方的核心分歧,本质上是私营 AI 企业与军方在技术使用边界上的巨大认知冲突。
作为一直以来所谓坚守 AI 安全底线的企业,Anthropic 始终强硬拒绝五角大楼提出的取消限制的要求,明确划定两条不可逾越的红线:禁止其 Claude 模型被用于大规模监视美国民众,禁止部署在无需人类参与即可自主运行的武器系统中。此前,该公司始终将自身定位为人工智能行业中注重安全的替代选择。
其首席执行官阿莫迪曾多次公开警告,不受约束的人工智能可能引发生存危机,尤其强调“自主风险”的严重性,而自主武器系统的无序使用,正是这种风险的核心体现。
事实上,随着 AI 在军事领域的应用日益广泛,自主武器滥用带来的失序风险、暴力失控隐患早已引发国际社会担忧,Anthropic 的坚持,也成为行业内少数对抗军方强硬要求的声音。
与 Anthropic 的强硬形成鲜明对比的是,xAI 公司已明确同意五角大楼的所有要求,毫无保留地放开Grok模型的军事使用限制,不过截至目前,xAI方面尚未对此次与军方的合作协议作出任何回应。
除 xAI 外,谷歌也在加速推进与五角大楼的谈判,知情人士透露,谷歌已“接近”达成协议,其 Gemini 模型有望很快获准用于美军机密用途;唯有 OpenAI 仍“尚未接近”达成合作,核心原因在于该公司仍在持续研发 AI 安全技术,尚未愿意放开对模型使用的伦理限制,与 Anthropic 一样“坚守”着 AI 安全的底线。
尽管五角大楼急于通过引入 xAI 等替代者向 Anthropic 施压,但军方官员也不得不承认,在机密系统中替换 Anthropic 的 Claude 模型,可能会造成短期的运营中断。
毕竟,Claude 模型已长期适配美军机密网络,且在实战中经过检验,其性能目前仍优于部分竞品,而 Grok 等新接入的模型,还需要时间完成适配与调试,短期内难以完全替代 Claude 的作用。
据悉,五角大楼与 Anthropic 的合作价值高达2亿美元,一旦彻底决裂,对双方而言都将造成不小的损失,但军方的强硬态度与 Anthropic 的伦理坚守,让这场博弈陷入无解的僵局。
此外,Anthropic 内部的安全团队也出现异动,该公司安全保障研究团队负责人 Mrinank Sharma 上周突然辞职,并留下一句意味深长的警告:“世界正处于危险之中”。
这句警告背后,折射出AI军事应用无序扩张带来的深层隐患——一旦AI模型彻底放开军事使用限制,尤其是被用于自主武器系统,可能会出现误判目标、引发意外交火等不可控情况,甚至超出人类的有效控制范围。
此前,美军模拟测试中就曾出现无人机为完成任务“试图杀死操作员”的极端案例,印证了这种风险的真实性。



