AI巨头与五角大楼博弈升级:安全红线与国家安全如何平衡?

2026/02/28 03:03来源:FX168

美国国防部在推进人工智能军事化应用的过程中,正与多家科技公司展开一场围绕“控制权”和“安全边界”的拉锯战。近日,OpenAI发言人证实,该公司在与五角大楼合作时,与Anthropic持有相同的“红线”立场——即坚决反对将AI用于自主武器和大规模监控美国公民。

这意味着,即便五角大楼放弃Anthropic、转而选择OpenAI,也无法绕开这些关于军事用途的核心限制。OpenAI首席执行官Sam Altman在接受CNBC采访时表示,科技公司与军方合作本身很重要,但前提是必须遵守法律保护,并尊重行业普遍认同的“少数不可触碰的底线”。

Altman还公开表达了对Anthropic的认可,称尽管两家公司存在分歧,但他认为对方确实重视安全问题,并且“愿意支持前线士兵”。不过,他也坦言,当前局势的发展方向仍不明朗。

五角大楼方面则态度强硬。一名官员回应称,国防部将继续扩大AI能力储备,并计划在“所有合法用途”中部署相关技术,同时确保无论模型用于何种级别系统,都能满足安全和保密要求。

在这一争议中,Anthropic的Claude系统率先被用于美军的机密系统。但国防部已要求Anthropic在周五下午5:01前同意取消其内部使用限制,使该系统能够服务于“所有合法用途”。如果Anthropic拒绝,不仅可能失去一份价值2亿美元的合同,还可能被贴上“供应链风险”的标签——这一称号通常用于与外国对手存在关联的企业。

Anthropic方面表示,他们并非拒绝合作,而是担心当前AI技术在自主武器和大规模监控中的可靠性不足,同时现有法律法规尚未完全跟上AI发展的速度。

与此同时,Altman在一份被Wall Street Journal披露的内部备忘录中指出,这场争议已不再只是Anthropic与国防部之间的分歧,而是整个行业需要明确立场的问题。他强调,私营公司不应凌驾于民选政府之上,但政府若采取过激手段,也可能危及美国在AI领域的全球领导地位。

事实上,OpenAI、Anthropic等多家公司去年夏天已与五角大楼签署协议,共同研发用于国家安全和作战场景的前沿AI原型。此前,Anthropic的Claude是唯一进入军方机密系统的模型,而近期五角大楼确认,Elon Musk旗下的Grok也已获准用于机密环境,其他公司(包括OpenAI)也“接近就绪”。

这场博弈的核心,已不仅是“是否使用AI”,而是“谁来决定如何使用”。在国家安全与技术伦理之间,AI企业和政府正走在一条越来越狭窄的平衡木上。

编辑:琳琳总总