夜间模式 切换到宽版

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 181|回复: 4

[科技新闻] DeepSeek-V3.1加持,青海绿电政策落地,国产算力芯片行业迎来奇点时刻

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:410
发表于 2025-9-21 20:24 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
 该图片可能由AI生成
1.webp



【摘要】国产算力正在迎来一系列利好。8月底,DeepSeek-V3.1宣布率先适配国产芯片设计,FP8精度革命推动算力效率跃升。同时,青海联合天合光能等头部新能源企业完善了绿电托底能力。
这一大背景下,国内公司正在从不同角度形成联合:海光信息开放CPU互联生态,昆仑芯中标移动十亿级集采,壁仞为国产算力集群项目提供算力底座。
国产算力正从“单点突破”走向“系统协同”。短期内,替代英伟达的可能不会是某一家公司,而是更多中国企业在开放协作中构建起来的算力标准与生态。
以下为正文:
8月21日,DeepSeek正式官宣其新一代模型 DeepSeek-V3.1,除常规升级外,DeepSeek尤其强调了下一代将采用UE8M0 FP8 Scale参数精度,并明确指出该精度标准是针对即将发布的下一代国产芯片设计。
过去,大模型训练推理普遍使用FP32(32位浮点数),随后逐步过渡到FP16(16位浮点数)混合精度,以减少存储和通信开销,FP8能进一步将数据宽度压缩至8位。不仅算力效率翻倍,而且能降低训练和推理过程中网络带宽的通信量。
此外,国家互联网信息办公室近期就H20算力芯片漏洞后门安全风险约谈英伟达公司,国企采购H20受限。对华销售遇阻后,英伟达通知部分零部件供应商暂停H20芯片生产。
DeepSeek-V3.1刺激下的这一全新国产AI体系,对我国自主化进程是重大利好。
同时,青海作为绿电优势地域,已经依托政策与天合光能、中国联通等公司打造了国内首个基于云计算调度的全国产化大规模智算集群,能够基于国产化算力底座与全域智能调度技术,打造一体机+私有化+云端的多维模式敏捷部署能力,构建一体化AI平台。
多轮刺激下,国产算力正在迎来一个更丰满的故事。
01

CPU企业如何入局

9月刚过半,海光信息放出了两个重要消息。
9月5日,重庆智博会开幕期间,海光信息宣布将开放CPU能力,依托国家先进计算产业创新中心“AI计算开放架构联合实验室”,向产业生态伙伴提供直连IP、开放协议及定制化指令集。
9月13日消息,海光信息在闭门会议中宣布要面向全栈产业伙伴开放CPU互联总线。
两项举措的接连曝光,能明显看出海光正在走一条更加趋于全栈协同的生态道路。第一步先消除国产CPU与AI芯片之间的壁垒,第二步将互联总线的开放范围扩大到整个产业链上下游,包括GPU、DPU、OEM、IO、OS等链上伙伴。
作为国内CPU量产成绩最佳的企业,海光的下场对算力规模化发展至关重要。当前国产算力资源组成中,各个芯片技术路线虽然齐头并进,但产业生态离散化现象严重,不仅CPU与加速卡之间算力调度困难,计算产业各个环节同样存在算力流通阻塞问题。
海光此举,一方面能基于自家CPU的平台纽带作用,快速破除AI芯片壁垒,高效调度智算资源,降低算力应用成本;另一方面也能通过开放式的海光系统互联总线,与产业链上下游形成合力,随着接口标准等愈发规范,集群式算力协同体系将加速成形。
值得一提的是,在此节点能够做出这种决策的,大概率只有海光一家。
加码生态的背后,海光C86架构近几年已经足够稳定,相较于同类芯片产品,海光通用处理器CPU已独立实现多代产品的自研和商用,量产成绩保证了安全技术水平上的大幅领先,要让产业链的其他人愿意用,首先就要保证自家产品的安全可控。
海光的另一个优势在于C86架构能够完全兼容Wintel主流生态,可以快速适配数百万款常见的应用软件和系统软件,产业上下游伙伴与海光的合作推进会更加迅速省心,这是算力规模化的必要条件。
更关键的是,海光的开放表明其C86底层架构已足够成熟,在安全自主层面具备充分底气。通过多年饱和研发投入,公司已经彻底完成技术的消化吸收和再创新。其C86架构不仅实现了多代产品的独立迭代,也在安全可控性上达到领先水平。
02

AI芯片量产加速

AI芯片领域的变化是从“去英伟达”开始的。此前据媒体消息,阿里巴巴与百度已经在人工智能模型训练中引入自研芯片,以部分替代英伟达的产品。阿里自今年年初起,便在小规模模型的训练中使用自研芯片;百度则尝试用昆仑P800芯片训练新版文心大模型。
据报道援引三位使用过阿里自研芯片的员工透露,其性能已经可以与英伟达目前在华最强的H20芯片相媲美。这意味着,国产替代的临界点正在到来。
另一边,英伟达本身也受制于人。有报道称,英伟达甚至已与特朗普达成协议:作为交换条件,公司需上缴其在华H20芯片销售额的15%。8月底,CEO黄仁勋表示,公司与白宫就向中国出口“降配版”下一代芯片的谈判仍在进行。
早在8月21日,昆仑芯就宣布在中国移动2025-2026年AI通用计算设备集采项目中大获全胜。在“类CUDA生态”标段,基于昆仑芯的AI服务器包揽标包1、标包2、标包3的70%、70%、100%份额,中标规模达十亿级。这证明昆仑芯已经可以兼容国际主流生态,更在性能、成本和适配性上具备竞争力。
与此同时,壁仞科技也在稳步推进。2025年6月,公司完成了新一轮的15亿元融资。
依托壁砺系列通用GPU算力产品,壁仞科技近期的主要策略是为国产算力集群项目提供了高效、稳定、安全可控的算力底座。
举例而言,7月25日,浙江联通、壁仞科技、中兴通讯、优云科技四方联合打造的国产算力集群,在浙江乌镇智算中心正式点亮。该集群项目依托浙江省的算力资源,为智能网联汽车、智能制造、金融、医疗、政务等前沿领域的高性能计算需求都提供了强有力的数字支撑。
值得一提的是,此次国产智算集群的建成与落地运营,还意味着壁仞科技依托自有产品的集群能力优势,已在三大运营商完成国产算力集群的规模化商业落地,充分展现壁仞科技在集群建设领域的技术实力和商业化潜力。
03

资本开支增长,大一统时代开启

2025年第二季度,半导体行业稳健增长的大背景下,国产AI算力芯片厂商业绩显著上升。
值得一提的是,国内云厂商和互联网公司密集发力,换句话说,客户的意愿度决定了国产算力合作究竟有多深。
第二季度,国内三大互联网厂商阿里巴巴、百度、腾讯资本开支合计同比增长168%,环比增长12%。
此外,受益于AI对于公司核心业务的推动,北美四大云厂商谷歌、微软、Meta、亚马逊资本支出合计同比增长69%,环比增长23%。
黄仁勋表示:超大规模云厂商的资本支出在2025年将达到6000亿美元,预计2030年AI基础设施市场规模将达到3万亿至4万亿美元,预计超大规模云厂商2025-2030年资本支出复合增速高达46%。
充沛的资本加持下,国产算力替代需要真正考虑一个系统工程问题——如何做好从芯片到应用的整体配合。当前,整个算力产业链可分为四大层次:芯片层、系统层、软件层和应用层。
芯片层是基础,包括CPU、GPU、AI加速卡等计算芯片,以及内存芯片、存储芯片等。系统层涵盖服务器、数据中心、网络设备等硬件设施。软件层包含操作系统、数据库、中间件、AI框架等。应用层则是最终面向用户的各类算力服务和应用场景。
目前,这四层体系面临的主要问题是:单点突破有余,系统协同不足。国产芯片性能不断提升,但软硬件协同优化不够,导致整体算力效率无法最大化。
海光信息、壁仞科技、昆仑芯近期在做的合作,都是在朝着这一方向解决问题。
减少重复造轮子,降低企业研发门槛,是加速国产算力整体生态建设的必经之路。
04

尾声

国产算力替代势必要从单点突破进入系统协作新阶段。
芯片厂商开放IP、整机企业制定标准、软件公司适配优化、应用企业反馈迭代,只有同步完善这种紧密协作的模式,才能打破各环节之间的壁垒。
从海光开放生态,到百度联合昆仑芯自研芯片训练大模型,再到中科曙光联合20多家企业发布AI计算开放架构,生态建设仍是国产芯片厂商面临的重要考题。
短期内,替代英伟达的可能不会是某一家公司,而是更多中国企业在开放协作中构建起来的算力标准与生态。
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-9-21 20:46 | 显示全部楼层
国产算力生态多久能成熟?
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-9-21 20:46 | 显示全部楼层
用了海光CPU互联生态后本地部署AI模型快多了 就是偶尔集群调度会有0.5秒延迟 像煮开水前那一下噗呲声 不过算力效率翻倍真香
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:485
发表于 2025-9-22 09:16 | 显示全部楼层
谢谢楼主分享!
回复 支持 反对

使用道具 举报

  • 打卡等级:自成一派
  • 打卡总天数:192
发表于 2025-9-22 09:22 | 显示全部楼层
哥顶的不是帖子,是寂寞!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-23 14:44 , Processed in 0.497656 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表