被大量提问内部逻辑 谷歌Gemini遭蒸馏攻击

2026年02月15日 20:37 次阅读 稿源:快科技 条评论

近日,谷歌官方披露其旗舰AI模型Gemini正遭遇商业化驱动的大规模蒸馏攻击——通过重复提问诱导聊天机器人泄露内部机制。谷歌称,攻击者通过系统地、反复地向模型发送精心设计的提示词(单次攻击超10万次),试图逆向工程Gemini的内部推理逻辑与决策机制,以实现模型克隆或强化自身AI系统的目的。

这些攻击主要由“商业动机行为者”发起,谷歌判断其幕后人员多为希望获得竞争优势的AI私企或研究机构,公司发言人表示,此次攻击源来自全球多个地区,但并未透露更多信息

据悉,蒸馏攻击(也称知识蒸馏)原本是一种模型压缩技术,通过将大型“教师模型”的知识迁移到小型“学生模型”中,实现模型轻量化。

攻击者通过系统化、结构化的海量提问,收集模型在不同场景下的响应,分析响应的内容、延迟、置信度等细微差异,构建Gemini的决策边界与推理路径图谱,最终用收集到的响应数据训练自己的“学生模型”,复制Gemini的核心能力

谷歌称,此类蒸馏攻击属于知识产权盗窃,尽管各大厂商已部署能够识别与阻断蒸馏攻击的机制,但由于主流大模型服务面向所有人开放,所以其本质上仍易受攻击

对文章打分

被大量提问内部逻辑 谷歌Gemini遭蒸馏攻击

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan