找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 14|回复: 1

[科技新闻] 消息称华为即将发布AI推理领域突破性成果:降低对 HBM 依赖

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-8-10 08:45 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
IT之家 8 月 10 日消息,据《科创板日报》报道,华为将于 8 月 12 日在 2025 金融 AI 推理应用落地与发展论坛上,发布 AI 推理领域的突破性技术成果。据透露,这项成果或能降低中国 AI 推理对 HBM(高带宽内存)技术的依赖,提升国内 AI 大模型推理性能,完善中国 AI 推理生态的关键部分。
IT之家注意到,华为在 AI 推理领域的技术突破已有先例。2025 年 3 月,北京大学联合华为发布了 DeepSeek 全栈开源推理方案,该方案基于北大自研 SCOW 算力平台系统和鹤思调度系统,整合了 DeepSeek、openEuler、MindSpore 与 vLLM / RAY 等社区开源组件,实现了华为昇腾上的 DeepSeek 高效推理。
在性能方面,华为昇腾已实现多项突破。例如 CloudMatrix 384 超节点部署 DeepSeek V3 / R1 时,在 50ms 时延约束下单卡 Decode 吞吐突破 1920 Tokens / s;Atlas 800I A2 推理服务器在 100ms 时延约束下单卡吞吐达到 808 Tokens / s。
科大讯飞与华为的合作也取得了显著成果,双方率先实现了国产算力上 MoE 模型的大规模跨节点专家并行集群推理,使推理吞吐提升 3.2 倍,端到端时延降低 50%。
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-8-10 10:58 | 显示全部楼层
华为这次要是真能降低对HBM依赖,就像给国产AI推理卸了个高价包袱,我之前看Atlas 800I A2单卡吞吐808 Tokens/s就觉得不错,这回估计更猛
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2025-9-15 06:24 , Processed in 0.187730 second(s), 4 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表