找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 42|回复: 5

[数码资讯] 英伟达最强开源权重 AI 模型

[复制链接]
  • 打卡等级:功行圆满
  • 打卡总天数:744
发表于 2026-3-12 08:38 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
英伟达公司昨日(3 月 11 日)发布博文,宣布推出 Nemotron 3 Super 开源大模型,是其迄今为止最强大的开源权重 AI 模型。



IT之家注:开源权重模型(Open-weight AI models)是指将决定 AI 模型行为的关键参数(权重)向公众免费开放的模型。与完全闭源的模型(如 GPT-4)不同,开发者可以下载并在自己的设备上运行或微调这些模型。

Nemotron 3 Super 模型拥有 1200 亿参数,采用混合专家(MoE)架构(推理时仅激活 120 亿),专为大规模运行复杂智能体(Agentic AI)系统设计。

该模型结合了先进的推理能力,能够为自主智能体高精度地完成任务。Perplexity、Palantir 和西门子等行业巨头目前已将其应用于搜索、软件开发、电信和半导体设计等核心工作流中。

随着企业将 AI 应用从聊天机器人转向多智能体,往往面临两大瓶颈:“上下文爆炸”与“推理税”。多智能体交互会产生最多 15 倍的 Token 量,导致成本飙升和目标偏移;同时,复杂智能体每步都需要推理,让系统变得昂贵且迟钝。

Nemotron 3 Super 为解决这些问题,配备了 100 万 Token 的上下文窗口。这让智能体能够将完整的工作流状态保留在内存中,从而防止目标偏移,并大幅降低多步推理的成本。

在架构与性能方面,该模型采用了混合专家(MoE)架构,将吞吐量提升了 5 倍,准确率比前代翻倍。具体而言,其 Mamba 层使内存和计算效率提高了 4 倍,而 Transformer 层则负责高级推理。

此外,模型引入了“潜在 MoE(Latent MoE)”新技术,以单个专家的计算成本激活四个专家;并支持多 Token 预测,让推理速度提升 3 倍。在英伟达 Blackwell 平台上,该模型以 NVFP4 精度运行,相比 Hopper 架构上的 FP8,内存需求更低且推理速度快 4 倍。

英伟达对该模型采取了高度开放的策略。官方不仅遵循宽松许可证开源了模型权重,还公布了完整的训练方法,包括超 10 万亿 Token 的数据集和评估配方。在实际场景中,它能一次性加载完整代码库进行端到端调试,或瞬间读取数千页财务报告。

开发者目前可通过 Hugging Face、各大云服务商(谷歌云、甲骨文,及即将上线的 AWS 和 Azure)获取该模型。同时,它已被打包为 NVIDIA NIM 微服务,支持无缝部署制本地数据中心和云端。

  • 打卡等级:已臻大成
  • 打卡总天数:448
发表于 2026-3-12 08:47 | 显示全部楼层
看看
回复 支持 反对

使用道具 举报

  • 打卡等级:已臻大成
  • 打卡总天数:384
发表于 2026-3-12 09:00 | 显示全部楼层
感谢分享
回复 支持 反对

使用道具 举报

  • 打卡等级:功行圆满
  • 打卡总天数:733
发表于 2026-3-12 09:31 | 显示全部楼层
谢谢分享。
回复 支持 反对

使用道具 举报

  • 打卡等级:自成一派
  • 打卡总天数:160
发表于 2026-3-12 09:35 | 显示全部楼层
支持,非常给力!
回复 支持 反对

使用道具 举报

  • 打卡等级:功行圆满
  • 打卡总天数:746
发表于 2026-3-12 10:35 | 显示全部楼层
感谢分享英伟达Nemotron 3 Super资讯
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2026-3-12 15:14 , Processed in 0.146666 second(s), 4 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表