夜间模式 切换到宽版

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 160|回复: 10

[科技新闻] 站稳AI存储C位?HBM紧缺恐成定局,但这一技术正“虎视眈眈”

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 18:00 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
《科创板日报》10月3日讯,AI时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的“内存墙”,而HBM凭借其超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择。
全球科技巨头纷纷将HBM作为战略要地。
在日前的财报会上,美光特别强调,预计半导体芯片、特别是HBM的供不应求情况将会加剧。公司CEO Sanjay Mehrotra透露,当前半导体存储领域,DRAM库存已低于目标水平,NAND库存持续下滑;而HBM产能需求增长显著,产能已被锁定,预计2026年HBM出货量增速将超过整体DRAM水平,成为半导体存储板块的核心增长驱动力。
具体HBM产品中,美光表示,已与几乎所有客户就2026年绝大部分HBM3E产能达成定价协议;公司正在与客户就HBM4进行讨论,供应“非常紧张”。
此外,华为也在近期宣布,自昇腾950PR开始,昇腾AI芯片将采用华为自研的HBM。其中,昇腾950搭载自研的HBM HiBL 1.0;昇腾950DT升级至HBM HiZQ 2.0。
▌为什么是HBM?
为何存储需求热潮中,“特别是HBM的供不应求情况或将加剧”?
华尔街分析师指出,定制化HBM(cHBM)已经从曾经的被动元件转变为具备逻辑算力的主动部件,重塑存储的角色。在这种情况下,AI基建中,存储总体拥有成本(TCO)不断上升。
定制化HBM可以集成不同功能、运算能力与逻辑Die设计,例如LPDDR与HBM并行工作,在HBM堆栈中加入计算逻辑,成为性能差异化的关键。
目前,存储厂商已开始提供覆盖HBM、逻辑die、LPDDR、PIM等的全栈解决方案,并与客户开展定制化HBM合作。
同时随着AI能耗的增加,存储厂商也开始强调HBM在节能上的价值。SK海力士预测称,HBM能效每改善10%,可带来单机架2%的节能效果,对系统级节能有重大意义。
▌AI推理将迎“十倍增长” “以存代算”技术“虎视眈眈”
以HBM为首的存储需求陡增背后,是AI推理的飞速崛起。
黄仁勋在最新采访中,重申了对AI推理的信心。他再次强调,AI推理将迎来十亿倍增长。推理的量级已不是过去的“一次性回答”,而是逐步演进的“先思考再作答”的动态生成,思考得越久,答案质量越高。
券商指出,人工智能技术的蓬勃发展推动大模型训练走向规模化,但真正创造持续商业价值的 核心环节在于推理过程。AI推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈。
在这一背景下,内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽于大容量内存可降低访问延迟、提升并行效率。
广发证券指出,随着AI推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD及HDD在超长上下文和多模态推理场景中发挥关键作用,高带宽内存保障模型权重和激活值的高速访问,SSD满足高频读写与短期存储需求,HDD提供海量长期存储支持。随着AI推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百EB级别。
但值得留意的是,“HBM供不应求情况加剧”的另一面,是供应瓶颈下可能出现的“技术替代”——“以存代算”。
天风证券认为,“以存代算”技术通过将AI推理过程中的矢量数据(如KV Cache)从昂贵的DRAM和HBM显存迁移至大容量、高性价比的SSD介质,实现存储层从内存向SSD的战略扩展,而非简单替代。其核心价值在于显著降低首Token时延、提升推理吞吐量,并大幅优化端到端的推理成本,为AI大规模落地提供可行路径。分析师进一步指出,QLC+PCIe/NVMe+CXL有望构筑下一代AI SSD基座,推动SSD从单纯存储介质,升级为AI推理“长期记忆”载体。
(科创板日报)
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 18:14 | 显示全部楼层
HBM:AI时代的“内存房奴”
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 18:14 | 显示全部楼层
HBM这玩意儿就像小区宽带升级成光纤,带宽大还省电,2026年增速超整体DRAM,不过供应锁死真愁人,科技宅表示跟不上节奏
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 21:27 | 显示全部楼层
HBM技术确实越来越重要了,记得去年参加一个AI研讨会,专家就提到存储会成为瓶颈。现在看来,华为、美光这些大厂都在抢HBM产能,未来AI发展真的离不开它。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 21:28 | 显示全部楼层
HBM成为AI芯片的核心组件是大势所趋,但产能受限确实是个问题。未来可能会看到更多厂商加速布局HBM,同时‘以存代算’技术也可能成为缓解供应压力的备选方案。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 22:28 | 显示全部楼层
看资料说HBM3E带宽都到1.2TB每秒了,比最早的HBM1翻了近十倍,等技术跳到HBM4,层数堆到16Hi,性能怕是又要刷新认知了。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 22:28 | 显示全部楼层
以存代算这思路挺机智的,把KV Cache这类数据从HBM挪到SSD,能降七成端到端推理成本,对成本敏感的企业来说,这诱惑太大了。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 22:28 | 显示全部楼层
HBM像是高速公路,带宽就是车道数,3E和4都在加宽加快,但高速再宽也有上限,产能瓶颈才是现在的卡点,这时候厂商锁定2026产能,也是在给自己提前抢票。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 22:28 | 显示全部楼层
挺有趣的,HBM过去只是配件,现在能集成逻辑die,等于在内存里加了小脑,做一些数据预处理,减少来回搬运,就是微型算力单元的感觉。
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-10-3 22:29 | 显示全部楼层
如果HBM持续紧缺,会不会倒逼算法优化?比如模型轻量化和注意力机制改进,让同样任务耗更少内存。感觉软硬结合才是终极方案啊。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-19 20:13 , Processed in 0.415747 second(s), 4 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表