美国人工智能(AI)新创公司Anthropic在其AI技术供美国军方使用的安全防护措施争议中,拒绝了五角大楼提出的最新提案,使双方对峙在政府设定的最后期限前一天进一步升级。 该期限要求公司撤回相关限制,否则将面临严重后果。
根据《彭博》报导,Anthropic周四发表声明指出,国防部提出的新合约语言,仍未满足公司对其 AI 工具军事用途设立防护措施的要求。 该公司坚持两项关键限制:
- 不得将其 AI 技术用于监控美国公民
- 不得在无人类介入的情况下执行自主致命攻击
Anthropic表示,尽管最新提案未达标准,但公司仍持续与国防官员协商,并强调致力于与军方合作。 对此,五角大楼发言人尚未立即回应。
这场争议的焦点,在于 Anthropic 要求其 Claude AI 工具在军事应用时必须附带使用限制,但美国国防部认为这些条件并无必要。
国防官员此前已拒绝相关要求,并强调必须能在不受 Anthropic 额外限制的情况下使用 Claude。 Claude 是目前少数获准处理机密云端工作的 AI 工具之一。
若 Anthropic 不撤回上述条件,美国国防部已扬言将其列为「供应链风险」,此举将使该公司无法再与其他国防承包商合作。
此外,五角大楼甚至威胁动用冷战时期制定的《国防生产法》(Defense Production Act),在公司反对的情况下强制使用其软件。
Anthropic首席执行官Dario Amodei周四表示,公司仍致力于与军方合作,但希望国防部重新考虑仅与愿意接受《所有合法用途》标准的承包商合作的立场。
他在声明中强调:「这些威胁不会改变我们的立场:我们无法在良知上同意他们的要求。」
AI 军备竞赛升温
目前估值约 380 亿美元的 Anthropic,是首家获得五角大楼核准处理机密资料的 AI 公司,其 Claude Gov 工具因作简便,迅速成为国防人员青睐的选项。
然而,该公司正面临日益激烈的竞争。 由特斯拉、SpaceX 执行长马斯克创立的 xAI,近日也获准承接机密工作; 同时,OpenAI 以及 Google(GOOGL-US) 旗下的 Gemini 亦为强劲对手。
Anthropic发言人透露,国防部最新提出的合约条款虽被描述为折衷方案,但其中法律措辞可能使公司对监控与自主武器的两项防护措施形同虚设。
Amodei 表示,Anthropic 理解最终军事决策权属于国防部,而非私人企业。 他强调,公司提出的两项限制并非试图制定政策,而是为确保仍处于发展初期、且偶有错误的 AI 技术,不会被用于超出其能力范围的场景。
美国五角大楼推动AI优先战略
这场争端爆发于五角大楼公布全新 AI 战略仅数周之后。 该战略呼吁通过加强对尖端 AI 模型的实验运用,并减少使用上的官僚障碍,将军队打造为一支「AI 优先」的部队。
该方针并特别敦促国防部选择不受使用政策限制、且不会妨碍合法军事应用的模型。
国防官员重申,军方将在法律范围内使用Anthropic的技术。 五角大楼发言人Sean Parnell周四稍早也表示,国防部无意进行大规模监控,亦不打算开发「在没有任何人类参与下运作的自主武器」。
Parnell 随后在社交平台 X 上发文强调:「我们不会让任何公司决定我们如何做出作战决策。」他并指出,对方必须在美东时间周五下午5点01分(台湾时间为周六上午6:01 AM)前作出决定,否则将终止与Anthropic的合作关系,并将其列为供应链风险。













