谷歌Gemini遭大规模蒸馏攻击 导致超10万次提示泄露核心逻辑

谷歌Gemini遭大规模蒸馏攻击 导致超10万次提示泄露核心逻辑

2026年02月15日 20:04
本文共计633个字,预计阅读时长3分钟。
来源/aibase 责编/爱力方

谷歌于当地时间2月12日披露,旗下 AI 聊天机器人 Gemini 正遭遇大规模 “蒸馏攻击”,攻击者通过海量重复提问诱导模型泄露内部机制,其中单次攻击的提示次数竟超10万次,引发行业对大模型安全的高度关注。据悉,这类攻击是通过反复试探 Gemini 的输出模式与逻辑,试图探测其核心内部机制,最终实现克隆模型或强化自身 AI 系统的目的。

image.png

谷歌表示,攻击主要由带有商业动机的行为者发起,幕后多为寻求竞争优势的 AI 私企或研究机构,攻击源遍布全球多个地区,不过谷歌并未披露更多嫌疑方信息。谷歌威胁情报小组首席分析师约翰・霍特奎斯特指出,此次攻击规模释放出危险信号,这类蒸馏攻击或已开始向中小企业的定制 AI 工具领域蔓延。

他将谷歌的遭遇比作 “煤矿里的金丝雀”,意味着大型平台的安全危机,正预示着整个 AI 行业即将面临的广泛风险。谷歌强调,蒸馏攻击本质上属于知识产权盗窃,各大科技公司为研发大语言模型已投入数十亿美元,模型内部机制是核心专有资产。

尽管行业已部署识别和阻断这类攻击的相关机制,但主流大模型服务面向公众开放的特性,使其从根本上仍难以规避此类风险。此次攻击的核心目标是套取 Gemini 的 “推理” 算法,即其信息处理的核心决策机制。

霍特奎斯特发出警告,随着越来越多企业训练包含内部敏感数据的定制化大模型,蒸馏攻击的潜在危害将持续扩大,甚至可能导致企业沉淀多年的商业思维和核心知识秘密,通过这类手段被逐步提取。

来源:谷歌 Gemini 遇大规模蒸馏攻击 单次超 10 万次提示泄露核心逻辑 | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯