找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 63|回复: 2

[综艺大观] 谷歌Gemini遭遇大规模蒸馏攻击,单次行动提示超10万次

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-11-1 21:35 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
IT之家 2 月 15 日消息,当地时间 2 月 12 日,谷歌称其 AI 聊天机器人 Gemini 正遭遇大量“蒸馏攻击”(distillation attacks)—— 即通过重复提问诱导聊天机器人泄露内部机制。
谷歌表示,这些攻击者试图通过反复提问不断试探其模型输出模式与逻辑,探测其内部机制,从而“克隆”该模型或强化攻击者自己的 AI 系统,其中一场攻击活动对 Gemini 的提示次数超过 10 万次。
谷歌在周四发布的报告中表示,这些攻击主要由“商业动机行为者”发起。公司判断其幕后人员多为希望获得竞争优势的 AI 私企或研究机构。谷歌发言人向 NBC News 表示,此次攻击源来自全球多个地区,但拒绝披露更多关于嫌疑方的信息。
1.webp


谷歌威胁情报小组(Threat Intelligence Group)首席分析师约翰 · 霍特奎斯特(John Hultquist)指出,“针对 Gemini 的攻击规模表明,此类攻击很可能已开始或即将蔓延至小型企业的定制 AI 工具领域。”他将谷歌的处境形容为“煤矿里的金丝雀”,意味着大型平台的遭遇可能预示更广泛的行业风险。
谷歌强调,此类蒸馏攻击属于知识产权盗窃。科技公司已投入数十亿美元开发 AI 聊天机器人(IT之家注:指大语言模型),其核心模型的内部机制被视为高度重要的专有资产。尽管各大厂商已部署能够识别与阻断蒸馏攻击的机制,但由于主流大模型服务面向所有人开放,所以其本质上仍易受攻击。
谷歌还提到,多数攻击旨在试图套取 Gemini 的“推理”算法,即其信息处理决策机制。霍特奎斯特警告,随着越来越多公司开始训练面向内部业务的定制 LLM,且这些模型可能包含敏感数据,蒸馏攻击的潜在危害会更大。他举例称,如果某家公司的 LLM 学习了其“100 年来交易的思维方式”,理论上也可能被蒸馏手段逐步提取出关键知识秘密。
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-12-25 15:18 | 显示全部楼层
有錢能使鬼推磨!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-12-25 22:18 | 显示全部楼层
搞垄断啊!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-11 04:02 , Processed in 0.162185 second(s), 6 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表