在美国国防部与Anthropic 之间陷入僵局之际,美国政府已制定一套针对民用人工智慧(AI)合约的严格新规,要求企业必须允许其AI 模型被用于「任何合法用途」。
根据《路透》引述《金融时报》报导,美国国防部近日将Anthropic 列为「供应链风险」,并禁止政府承包商在为美军执行相关工作时使用该公司的AI 技术。
这一决定是在双方长达数月的争议之后作出,争议焦点在于Anthropic 坚持加入多项安全保障措施,而国防部认为这些限制过于严格。
《金融时报》审阅的一份指导方针草案显示,寻求与美国政府合作的AI 公司,必须授予美国一项不可撤销的授权,允许政府将其系统用于所有合法用途。
报导指出,这项由美国联邦总务署制定的指导原则将适用于民用政府合约,也是美国政府整体强化AI 服务采购机制的一部分。此外,相关内容也与国防部正在考虑用于军事合约的措施相呼应。
隶属于美国联邦总务署、负责协助联邦政府采购软体的联邦采购服务局专员Josh Gruenbaum 表示:「如果联邦总务署继续与Anthropic 维持商业合作关系,对美国人民而言是不负责任的,对我们的国家也将带来危险。」
Gruenbaum 指出,依照总统指示,联邦总务署已终止Anthropic 的「OneGov」合约,这意味着该公司的技术将不再透过联邦总务署事先谈妥的采购协议,提供给美国行政、立法与司法部门使用。
对于相关报导,白宫尚未立即回应《路透》的置评请求。
此外,《金融时报》指出,联邦总务署草案规定,政府承包商「不得刻意在AI 系统输出的资料中嵌入任何党派或意识形态判断」。
同时,企业也必须揭露其AI 模型是否曾被「修改或设定,以符合任何非美国联邦政府或商业监管或合规框架」。













