IT之家从报道中获悉,这种需求的增长与 AI 数据中心热潮密切相关。随着越来越多公司将大语言模型的推理任务置于训练任务之前,以及近线存储需求上升,存储需求激增。近线存储位于热存储与冷存储之间,随着 AI 模型规模扩大和企业数据需求增加,越来越重要,可用于存储历史模型版本再训练、保存旧查询或托管不常用的用户数据。
尽管基于 DRAM 的 HBM 内存一直是 AI 模型训练的核心,但潘健成认为,闪存很快将在必需性上超过 HBM。“自 2022 年起,云公司主要抢购 GPU 用于训练模型,而训练依赖 HBM,与闪存关系不大。现在模型逐渐成熟,消耗大量资金后,云公司如何盈利?靠推理。”