夜间模式 切换到宽版

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 92|回复: 0

[科技新闻] DeepSeek升级,气到了黄仁勋

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2026-4-27 15:20 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
“不诱于誉,不恐于诽,率道而行,端然正己。”
这是上周DeepSeek-V4发布稿的结尾,DeepSeek自己引用的一句话。字面意思是,不被赞誉诱惑,不被诽谤吓到,按自己认定的道往前走,端正自己。
1.webp


过去一年多,同行动作频频,而DeepSeek除了零散的更新,几乎毫无动静,继而引发不少质疑,但DeepSeek没有回应过一次。
DeepSeek淡定地做自己,英伟达却不能从容了。
DeepSeek已明确表示,V4在下半年将正式支持华为算力。巧合的是,在此之前不久,黄仁勋在一档播客节目里提到:“如果像DeepSeek这样顶尖的模型优先在华为芯片上运行,对我们来说将是‘可怕的后果’。”
2.webp


过去两年,黄仁勋一直苦口婆心地劝告漂亮国:“如果中国不能从美国购买(高端芯片),他们就会自己建造。”
3.webp


但劝告无果,他只能眼睁睁地看着英伟达在中国的市场份额从2024年的70%降到2025年的55%。
接下来,黄仁勋的无奈和气愤大概率还将继续。
4.webp


黄仁勋心里的意难平,

分量越来越重了

5.webp


AI时代之前,黄仁勋只是众多游戏宅眼里刀法精准的“黄狗”。
到了AI时代,黄仁勋迎来人生巅峰,英伟达市值一路突破5万亿美元,全球第一。
逆袭背后,靠的是一次豪赌。
2006年,英伟达推出CUDA开发平台,能够降低GPU编程门槛,让多个GPU并行运算,从而大幅提升计算性能。
但当时除了英伟达,谁都没把它当回事。
一名英伟达深度学习团队的成员说道:“在CUDA推出十年以来,整个华尔街一直在问英伟达,为什么你们做了这项投入,却没有人使用它?他们对我们的市值估值为0美元。”
6.webp


CUDA十年无人问津,英伟达虽然痛苦,但也获得了先发优势。
所以当AI大潮轰然而至,英伟达一飞冲天。时至今日,英伟达的GPU更是变成了原油般的存在,几乎所有大模型都奔跑在英伟达的算力芯片上。
如果说黄仁勋现在还有什么意难平,恐怕只有中国市场了。
黄仁勋在2023年年底接受媒体采访时也表示,中国市场占英伟达销售额的大约20%。腾讯、阿里、字节等巨头的训练集群,清一色的英伟达GPU。
此外,在发展得如火如荼的中国智驾市场里,彼时有超过80%的辅助驾驶芯片也来自英伟达。
7.webp


然而一纸禁令,彻底搅了英伟达在中国市场的美梦。
英伟达的高端芯片无法继续给中国的AI大业添砖加瓦,后来专门为中国市场开发的阉割版的A800和H800也没能绕开管制,黄仁勋一边郁闷一边绞尽脑汁。
2023年11月,硅谷DealBook峰会上,黄仁勋在对着全息演示屏上的中国地图重申:“失去这个市场,我们没有Plan B”。
2024年1月,黄仁勋来华,在北京、上海、深圳三地的年会连轴转。上海那一场,他脱下黑皮衣,换上东北大花马甲,扭起了大秧歌;11月在港科大的讲台上,他又动之以理“开放研究是全球合作的最终形式”。
进入2025年,黄仁勋一方面继续向中国市场示好,身着“唐装”用生硬中文赞扬中国科技发展,一边对着大洋彼岸晓之以利:“中国是一个不可替代的市场,服务这里符合美国的利益”。
8.webp


可惜任凭他做足了各种姿态,说尽好赖话,还是事与愿违。
英伟达在中国市场一家独大的格局一去不复返,华为昇腾、阿里平头哥、百度昆仑芯和寒武纪,毫不客气地瓜分了它空出来的位置。
到嘴的鸭子越飞越远,黄仁勋忍不了了。
9.webp


10.webp


DeepSeek-V4,

戳中英伟达的命门

11.webp


2026年4月15日,黄仁勋做客美国知名播客节目。面对主持人的一连串追问,其中还夹带着指责他为了利益不顾国家安全的暗示,黄仁勋罕见地发飙了。
他表示,管制的逻辑“极其愚蠢”,是典型的“失败者心态”
12.webp


在黄仁勋看来,如果是强者心态,一开始就不该关注要不要限制高端芯片出口。
他曾公开表示:“无论有没有美国芯片,中国的人工智能技术都在快速发展。问题不是中国是否会拥有人工智能,它已经拥有了。真正的问题是,世界上最大的人工智能市场之一是否将运行在美国的平台上。”
所以,黄仁勋反复呼吁放开对华芯片销售。他不只是怕少卖几块GPU,更担心的是英伟达的生态地位被挑战。
一直以来,他真正在意的是CUDA生态。
13.webp


有人比喻,如果把英伟达GPU看作“电脑主机”,CUDA就是“Windows系统”。只要该生态能让大部分人离不开,英伟达就立于不败之地。
截至2025年,全球超过450万开发者在使用CUDA。几乎整个AI圈子的人都习惯在CUDA上写代码、开发应用。他们所有的学习成本、项目代码、工程经验,全都有英伟达的印记。
要离开这个生态也不是不行,但那就意味着代码重写,工具链重搭,工程师重新培训。有业内测算指出,非英伟达平台上开发周期可能延长6个月,成本增加40%。
所谓“卖产品不如卖品牌,卖品牌不如卖标准”,科技行业同样如此。
因此英伟达不怎么操心谁家的AI强不强,只关心他们的AI在不在自家生态里。
黄仁勋对于DeepSeek的态度,就是一个例子。
去年DeepSeek发布R1,直接冲击了行业对算力堆叠的路径依赖,业内突然意识到原来搞顶级AI可能不需要海量GPU,于是英伟达股价大跌,短短三天蒸发了6000亿美元。
14.webp


但当时黄仁勋对外没有显出一点慌乱,还宣称DeepSeek及其开源推理模型所带来的能量“令人无比兴奋”,并且笃定这种技术创新反而会带来更多算力需求。
那时他确实有底气。毕竟R1再怎么惊艳,终究是跑在英伟达的GPU上,活在CUDA的生态里。
DeepSeek-V4的出现,则是把他最担心的事变成了现实。
V4预览版上线的文档里有一行小字写着:“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。”
15.webp


言外之意是,等下半年华为昇腾950铺开了,V4不但会更流畅,价格还能再砍几刀。V4的存在也是在告诉其他人:离开英伟达的芯片和生态,也能干旗舰模型的活。
英伟达的生态壁垒就此裂出了一条缝,虽然还微不足道,但对于喜欢把“英伟达离倒闭只有30天”之类的话挂嘴边的黄仁勋,不得不警惕。
16.webp


17.webp


“全面替代”的口号,

不是说说而已

18.webp


想挑战英伟达的远不止国内企业。
2024年,AMD、英特尔、Meta、微软、谷歌等9家科技巨头成立了一个UALink联盟,针对的就是英伟达的护城河——NVLink。
OpenAI则是推出Triton编译器,试图绕开CUDA的“语言垄断”。
19.webp


所以段永平曾表达过对英伟达的一个顾虑:英伟达的护城河虽然很强大,但这么多巨头针对它,不能改变一些什么吗?
对此,英伟达见招拆招,收效颇丰。客户和竞争对手想在NVLink之外另起炉灶,英伟达干脆直接开放NVLink,让出一部分权限,让客户可以把其他品牌的芯片也混进算力集群里。
中国这边全然不同,局势促使我们坚定自研,历史也反复证明了爹有娘有不如自己有,必须把英伟达从“唯一选择”变成“备选之一”,哪怕中国的芯片在许多方面还暂时落后。
这也成了许多中国企业的共识。
科大讯飞是一个典型案例,明知迁移成本极高,用英伟达方案一个月能完成的任务,迁移到昇腾可能需要三个月,但其董事长刘庆峰直言:“这一步非走不可。”
20.webp


这种不计代价的投入,大概才是真正会让黄仁勋头疼的东西。
更何况,中国同行也有不少与英伟达对垒的底气。
一个是基建优势。
在播客里,主持人认为英伟达如果把高端芯片卖给中国企业,会帮助对手开发出顶尖AI模型。黄仁勋当即反驳道,顶尖的AI模型,不一定要最顶尖的芯片才能训练出来。
中国企业的解决方案是“芯海战术”,通过相关技术把数百甚至数千颗国产芯片高速互联,形成一个庞大的算力集群,用数量优势弥补单点性能的不足。
21.webp


集群模式功耗巨大,但好消息是,中国不缺能源。
22.webp


还有市场优势。
芯片和AI好不好用,需要在市场里验证和迭代。
中国不仅内需市场足够庞大,中国头部AI公司还普遍采用开源策略,大幅降低了开发者和企业的使用和二次开发门槛,叠加成本优势,中国的AI模型能轻易触达全球用户。
例如2024年初,Meta的大模型Llama下载量为1060万次,而阿里的大模型Qwen下载量只有50万次。但到了2025年10月,Qwen的累计下载量为3.853亿次,超过了Llama的3.462亿次。
就像最近很火的何润东版项羽说的“打战靠的是决心和勇气”,挑战英伟达也需要实力、动力和决心。
还好这些我们也都不缺。
国产芯片“能用”了,“好用”还会远吗?
图片来源于网络,侵权请联系删除
您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-4-27 21:12 , Processed in 0.139893 second(s), 5 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表