在 Anthropic 拒绝美国国防部提出的敏感用途授权请求后,Google已与五角大楼签署新协议,向其机密网络开放自家 AI 工具的访问权,几乎允许所有“合法用途”。多家媒体报道称,这一安排意味着国防部可以在机密环境中更广泛地部署Google的 AI,用于情报分析、决策支持等场景。
事件的导火索是 Anthropic 对特朗普政府的公开抗议立场。此前,五角大楼希望在几乎不设限制的前提下使用 Anthropic 的模型,包括将 AI 用于国内大规模监控和自主武器系统,而 Anthropic坚持要求在合约中加入明确“护栏”,禁止这类用途。由于 Anthropic 拒绝配合这些使用场景,国防部随后将这家模型公司列入“供应链风险”名单——这一标签通常只针对被视为“外国对手”的实体。
围绕这一指定,Anthropic 已向法院提起诉讼。今年 3 月,一名法官批准了 Anthropic 的请求,在案件审理期间,对“供应链风险”认定发出临时禁令,暂时阻止相关行政后果的继续扩散。
在这场冲突中,其他大型 AI 公司迅速抓住机会,试图把 Anthropic 的“损失”转化为自己的“收益”。OpenAI 第一时间与国防部签署协议,随后 xAI 也获得了进入机密网络的访问权限,并因此引发美国国会部分议员对五角大楼决策的质疑。如今Google成为第三家与军方达成类似安排的公司,其合作版图进一步扩大了美国防务体系可用的大模型阵容。
据《华尔街日报》报道,Google与五角大楼的协议文本中同样加入了措辞,表示公司“不打算”让其 AI 被用于国内大规模监控或自主武器,这与 OpenAI 合同中的部分表述类似。然而,报道也指出,这些条款在法律上是否真正具有约束力、以及在实际执行中如何监督和问责,目前仍然存在不确定性。
值得注意的是,Google是在内部反对声浪尚未平息的情况下推进这笔军方大单的。截至目前,已有 950 名Google员工联署公开信,呼吁公司效仿 Anthropic 的做法,在没有明确且可执行的使用限制之前,不应向国防部出售 AI 能力。针对这封联名信以及新合约的具体内容,Google对外尚未作出回应,也未答复媒体的置评请求。
在人工智能快速渗透公共安全与军事领域的背景下,这起事件折射出科技巨头、政府和自家员工之间愈发尖锐的价值观冲突。一方面,军方寻求最大限度地利用前沿 AI 工具来提升能力;另一方面,部分技术公司及其员工则企图通过合同条款和舆论压力,为 AI 的军事与安保应用设定底线。Google此次选择与五角大楼扩大合作,而非追随 Anthropic 的强硬姿态,也进一步加剧了围绕“谁来为 AI 的用途划定红线”的争议。


