埃隆·马斯克证实xAI 曾用OpenAI模型训练 Grok

2026年05月01日 03:28 次阅读 稿源:cnBeta.COM 条评论

在美国关于 OpenAI 的一场联邦诉讼中,埃隆·马斯克在证词中承认,他创立的人工智能公司 xAI 曾利用 OpenAI 的模型,通过所谓“蒸馏”(distillation)技术来训练自家聊天机器人 Grok,再次将这一原本在业内心照不宣的做法推到了聚光灯下。

近期,OpenAI 和 Anthropic 一直在大力抨击第三方通过向公开可访问的聊天机器人和 API 高强度提问,从而训练出新模型的行为,这一过程在业内被称为“蒸馏”。 过去几个月,舆论焦点多集中在部分中国公司身上,它们被指控通过蒸馏打造开源权重模型,这些模型能力接近美国前沿产品,却可以以更低成本对外提供。 但在技术圈内部,许多从业者早已普遍认为,美国本土的前沿实验室之间也会互相使用类似手段,以免在竞争中落后。

如今这一猜测在至少一个案例上得到了印证。 在周四于加州联邦法院的作证中,当被问及 xAI 是否使用蒸馏技术、基于 OpenAI 模型来训练 Grok 时,马斯克表示,这是“AI 公司普遍采用的做法”。 当对方追问这是否可以理解为“是”的时候,他给出的回答是,“部分是”。

马斯克当前正起诉 OpenAI 以及该公司 CEO 萨姆·阿尔特曼和联合创始人格雷格·布罗克曼,指控他们通过将 OpenAI 从非营利机构转变为营利结构,违反了最初的非营利使命。 这场审判本周开庭,马斯克的出庭作证成为其中的核心戏码之一。

马斯克的这一承认颇具意味,因为蒸馏技术被视为对大型 AI 公司的核心优势构成威胁:这些公司投入巨额资金建设算力基础设施,试图通过规模壁垒保持领先,而蒸馏却可能让其他软件开发者以远低于原始成本的代价,训练出在能力上“相差不远”的模型。 在此背景下,业内也不乏讽刺——为获取足够训练数据,前沿实验室本身就在版权边界上反复试探甚至被指“踩线”,如今却要抵御别人用合规接口把它们的模型“学走”。

从时间线来看,xAI 成立于 2023 年,比 OpenAI 晚了好几年,因此它试图向当时的行业领头羊“取经”并不意外。 目前尚不清楚蒸馏行为在法律上是否构成明确违法,更现实的约束可能来自各家公司对产品使用所设定的服务条款——蒸馏往往被视为对这些条款的违背,而不一定触及成文法本身。

面对来自中国的模型“抄袭”担忧,OpenAI、Anthropic 和Google已通过“前沿模型论坛”(Frontier Model Forum)发起联合行动,尝试共享情报,共同应对蒸馏尝试。 据报道,这些针对大型模型的蒸馏往往依赖系统化、大规模的自动提问,以此推断模型的“内部行为模式”。 为遏制此类行为,前沿实验室正在尝试识别并阻断疑似批量、异常请求,以防止模型被“榨干精华”。 截至发稿时,OpenAI 尚未就马斯克的这番证词回应置评请求。

在庭审稍晚阶段,马斯克还被问及他去年夏天曾做出的一个高调表态:xAI 很快将在能力上超越除Google以外的所有公司。 他在庭上对全球主要 AI 提供方进行了主观排序,称当前 Anthropic 位居第一,其次是 OpenAI 和Google,而中国的开源模型则排在其后。 相比之下,他将 xAI 描述为一家规模小得多的公司,目前只有几百名员工。

对文章打分

埃隆·马斯克证实xAI 曾用OpenAI模型训练 Grok

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      招聘

      created by ceallan