找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 122|回复: 3

[科技新闻] 国产“大算力”在手,乘胜追击万亿参数大模型?

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-2-10 20:03 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
当国产万卡集群完成“大算力”筑基,AI大模型正在万亿参数新赛点改写游戏规则。

2月10日,“国产万卡算力赋能大模型发展研讨会暨联合攻关启动仪式”在郑州举行。就在5天前,当地刚刚落成全国首个实现3万卡部署、且实际投入运营的最大国产AI算力池。从万卡超集群规模化落地到万亿参数大模型需求爆发,国产AI计算在此完成历史性交汇。

1.webp



大模型竞速驱动国产大算力进阶

在人工智能全球化竞速背景下,算力已成为国家级战略资源。一方面,国内政策持续推动自主可控的算力基础设施建设,驱动国产AI芯片、服务器、基础软件等全产业链替代需求;另一方面,AI大模型参数量飙涨,倒逼国产算力向万卡级计算集群进阶。

据公开信息统计,截至2025年12月,中国通过国家网信办备案的大模型数量已达748款。其中,达到万亿参数规模的大模型已经“一巴掌数不过来”。

“尽管参数量并不代表AI大模型产品的绝对实力,但随着模型精度的要求越来越高,万亿参数大模型正在刷新行业起跑线。”有业内人士感慨,在下一阶段的AI竞速中,算力引擎的助力越发关键。尤其对于大参数模型,万卡“大算力”或将成为标配。

前不久,scaleX万卡超集群在国家超算互联网完成规模化部署,并且直接面向万亿参数模型训练、高通量推理、AI for Science等大规模AI计算场景,俨然也印证了这一判断。

据悉,包括已经落地的scaleX万卡超集群在内,国内三大运营商以及百度、阿里、腾讯等互联网巨头,均已在万卡计算集群领域展开布局。业内预测,随着以scaleX为代表的大集群实现规模化落地验证,2026年预计新增万卡集群数量30-50个,累计总数有望达到70-90个。

开放式协同改写AI赛道竞技规则

中国大算力体系的蓬勃发展,为国产大模型演进提供了动能保障。然而,真正基于国产算力的大模型创新应用,仍面临一系列现实挑战。

在光合组织举办的国产万卡算力赋能大模型发展研讨会上,有大模型厂商介绍了当前存在的国产算力应用困境。“相比英伟达GPU,国产AI芯片起步较晚,生态还不够完善。比如,开源社区模型大多基于英伟达实现,在国产算力上无法实现开箱即用,需要额外的适配投入。”

此外,由于国产算力技术路线相对分散,很多智算中心之间都存在生态壁垒,即便部分算力基础设施达到了一定体量,但在异构计算环境应用中仍无法发挥出绝对性能。

会上有专家指出,当前万卡计算集群与万亿参数模型代表了全球AI技术领域一线阵地,但相较于海外科技巨头的“芯云模”垂直绑定模式,国产计算生态相对离散。想要释放出“大算力+大模型”的充沛动能,必须走错位赶超路线——在开放的生态体系下,构建软硬协同的一体化协同创新机制,进而让国产算力深入AI大模型核心应用实现场景化赋能。

值得注意的是,开放式协同路线正在AI产业上下游迅速达成一致。据悉,光合组织此次汇聚了大模型厂商、算力基础设施提供商等全栈生态伙伴,共同制定了“国产大算力+国产大模型”联合攻关方案,未来将在生态共建、技术攻关、协同创新等方面展开深度合作。

从国产万卡集群规模化落地进阶到万亿参数大模型实景演练探索,“开放协同”正成为贯穿中国AI计算演进的逻辑主线。当这条主线成功连接起产业供需两端,随之而来的将是一系列竞技规则的重构。在这个充满无限可能的智变时代,开辟新赛道可能才是弯道超车的开始。
  • 打卡等级:已臻大成
  • 打卡总天数:633
发表于 2026-2-11 00:05 | 显示全部楼层
感谢分享!
回复 支持 反对

使用道具 举报

  • 打卡等级:自成一派
  • 打卡总天数:161
发表于 2026-2-11 00:33 | 显示全部楼层
感谢分享!
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:683
发表于 2026-2-11 01:03 | 显示全部楼层
太耗电了
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-2-11 03:12 , Processed in 0.152167 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表