找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 65|回复: 5

[科技新闻] 内存价格要跌?谷歌压缩算法太炸了

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-26 10:43 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
就在昨天(3 月 25 日),谷歌发布了一项直接引起美光、SK 海力士等存储巨头股价下跌的技术——TurboQuant。

美光昨晚就跌超 4%,闪迪一度大跌 6.5% ,SK 海力士在韩股今天开盘后也很快下跌 3%。

1.webp



不是新模型,也不是新产品,TurboQuant 是谷歌最新推出的一种推理优化技术,更准确一点地说,是 AI 推理阶段的「内存压缩算法」。按照官方基于开源模型的测试,TurboQuant 至少能将 KV Cache(键值缓存)的内存需求:

降低 6 倍。

2.webp



这里需要解释一下,在推理阶段(和 AI 对话的时候),模型需要不断记录上下文,这部分就叫「KV Cache」,你也可以将它理解为 AI 的短期记忆。正常情况下,你和 AI 聊得越多,它记得越多,占用的内存也就越大。

而 TurboQuant 的目标用一句话概括就是:把 AI 的「记忆」压缩,但尽量做到无损,不让它变笨。

实际上,TurboQuant 关键做了两件事,一是通过 PolarQuant 的方法尽可能把原本高精度的数据(比如 32 位)无损压缩到 3bit 级别;二是通过 QJL 算法把压缩带来的误差修正。

先不论技术上的实现,如果真的能在更广泛的模型上做到「无损压缩」,TurboQuant 毫无疑问会成为一项极其关键的技术。毕竟,内存对于 AI 来说,真就是一个瓶颈,一个房间里的大象。

3.webp



首先是推理成本。AI 推理最贵的就是算力和内存,如果这一块能压缩到原本的六分之一,很多原本成本很高的 AI 服务就会变得更容易普及。

其次是更多的计算设备。现在很多 AI 只能跑在云端,很大原因就是本地设备带不动。但如果内存需求下降,手机、车机甚至一些边缘设备,理论上都有机会运行更强的模型,在实际应用上会更加灵活。

再往前一步看,甚至会影响我们怎么用 AI。

现在很多模型其实不是「不会」,而是「记不住」,上下文一长,就开始丢信息、答非所问。尤其是以 OpenClaw(龙虾)为代表的一系列 Agent 产品,更加依赖长上下文。

4.webp



如果 TurboQuant 能让模型在有限资源下记住更多内容,那长对话、多步骤任务执行这些场景,体验可能会明显提升。

当然,也需要冷静一点看。

目前 TurboQuant 距离大规模落地还有距离,还只在 Gemma 与 Mistral 开源模型上进行部分测试 ,能不能在 Gemini 以及其他模型上实现相近的效果,还不得而知。

另一方面,它改进的是推理过程的内存占用,并没有改变模型本身的能力,也无法降低训练成本。

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-26 12:18 | 显示全部楼层
谷歌这技术要是普及,存储商得抖三抖,AI成本真能大降!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-26 12:18 | 显示全部楼层
谷歌这TurboQuant把KV Cache内存压到1/6,就像把64G手机扩容到384G,本地跑大模型有戏了,不过仅测两个开源模型有点保守
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-3-26 12:29 | 显示全部楼层
反正手机涨价我计划就不买了,换换电池继续用吧,总不能一直涨价下去吧
回复 支持 反对

使用道具 举报

  • 打卡等级:炉火纯青
  • 打卡总天数:67
发表于 2026-3-26 13:35 | 显示全部楼层
版区有您更精彩
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:537
发表于 2026-3-26 17:17 | 显示全部楼层
牛X,支持...
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-3-26 20:05 , Processed in 0.222159 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表