Anthropic 近日公开指控中国 AI 公司 DeepSeek、MiniMax 与 Moonshot 大规模滥用其大模型 Claude,用于提升自身产品能力,并将这一行为定义为“工业化规模的滥用活动”。 公司在周一发布的声明中称,这些活动涉及约 2.4 万个伪造账号,以及与 Claude 之间超过 1600 万次的交互,此前《华尔街日报》已对相关情况作出报道。
据介绍,这些公司被指利用所谓“蒸馏(distillation)”技术,从 Claude 这样的更先进模型中提取能力来训练规模更小的模型。 Anthropic 在说明中承认,模型蒸馏本身是一种“合法的训练方法”,但同时强调这种方法“也可能被用于不正当目的”,例如在远低于自主研发的时间成本和资金成本下,从其他实验室获取强大能力。
Anthropic 特别警告称,以这种方式非法蒸馏获得的模型,很大概率不会继承原有模型中的安全防护与限制机制。 公司指出,“外国实验室在对美国模型进行蒸馏时,可以绕过这些安全约束,将未受保护的能力直接输入军事、情报与监控系统,从而使威权政府能够将前沿 AI 用于进攻性网络行动、虚假信息扩散以及大规模监视等用途”。
在这起事件中,DeepSeek 是关注度最高的一家——这家公司凭借算力效率更高、性能强劲的模型,曾在全球 AI 行业引发震动。 Anthropic 称,DeepSeek 与 Claude 之间的交互次数超过 15 万次,尤其集中在 Claude 的推理能力上。 此外,DeepSeek 还被指利用 Claude 生成“适合审查的替代表述”,用于回答涉及异议人士、党内领导人或威权主义等政治敏感问题,以规避本国审查系统的过滤。
针对 DeepSeek 的质疑不仅来自 Anthropic。就在一周前,OpenAI 在写给美国立法者的一封信中,也指责 DeepSeek 通过类似的蒸馏手段,长期“搭便车”式地利用 OpenAI 及其他美国公司已开发出的模型能力,以谋求竞争优势。 这封信同样将 DeepSeek 定位为对美国 AI 生态和技术领先地位构成威胁的一方。
目前,Anthropic 尚未在公开声明中详细披露后续的法律或监管行动路径,但通过将此事上升到国家安全和全球 AI 治理层面,公司显然希望推动监管机构和政策制定者正视“模型蒸馏被滥用”的风险。 在全球 AI 竞赛日趋激烈、跨境技术流动高度敏感的当下,这一指控也进一步加剧了围绕中美 AI 技术竞争与安全博弈的紧张气氛。


