ReadCai财经资讯
当前位置:首页 » 13. 科技 » 人工智能

英伟达发布开源模型Nemotron 3并收购调度工具,深化AI布局

2025-12-18

摘要

英伟达发布了Nemotron 3系列开源模型,并收购了算力调度软件公司SchedMD。Nemotron 3系列包含Nano、Super和Ultra三种规模,采用Mamba、Transformer与MoE混合架构,支持100万token上下文窗口。其中,Nemotron 3 Nano的吞吐量较前代提升4倍。Super和Ultra模型将采用专为Blackwell GPU设计的NVFP4格式,旨在构建软硬件生态闭环。对SchedMD的收购使英伟达获得了全球超半数TOP500超算使用的Slurm资源调度系统,将其影响力从硬件层延伸至资源调度层,进一步巩固其在AI领域的全栈生态布局。

线索

英伟达正从硬件供应商向全栈AI平台巨头转型,其核心战略是通过模型、软件和数据格式构建深度绑定的生态系统,将客户锁定在其硬件之上。

投资机会

1. 生态护城河:通过Nemotron模型(特别是NVFP4格式与Blackwell GPU的绑定)和Slurm调度系统,英伟达正在构建一个从硬件到软件、再到模型的强大闭环。这种“软硬件一体化”的锁定效应将极大提升客户粘性,巩固其市场主导地位,并带来持续的硬件销售和潜在的服务收入。

2. 市场扩张:Nemotron 3 Nano针对边缘计算和设备端AI,开辟了新的增量市场。而Slurm在HPC(高性能计算)领域的统治地位,则帮助英伟达牢牢抓住了科研、政府等超算核心客户,这些都是AI算力的重要需求方。

3. 标准定义权:通过推广Mamba架构和NVFP4等新技术,英伟达正试图定义下一代AI的技术标准。一旦生态形成,竞争对手将面临更高的追赶壁垒,不仅需要制造出同等性能的芯片,还需构建与之匹配的软件和模型生态。

潜在风险

1. 反垄断压力:这种从硬件到关键软件(Slurm)再到核心模型的全面控制,极易引发全球反垄断监管机构的密切关注和审查,可能导致业务分拆或行为限制等风险。

2. 社区信任危机:英伟达承诺保持Slurm的开源和中立,但市场对其能否真正履行承诺存疑。若未来出现对非英伟达硬件的优化不足、或对关键开源项目(如Slurm-on-Kubernetes)支持不力的情况,可能引发开发者社区的不信任,损害其“开放”形象。

3. 技术落地与竞争:目前发布的Nemotron 3 Nano在开源模型排行榜中表现并非顶尖,其实际效能有待市场检验。同时,谷歌、AMD及各大云厂商也在积极构建自己的AI生态,通过自研芯片和软件栈来对抗英伟达的封锁,竞争格局远未尘埃落定。

正文

英伟达宣布推出Nemotron 3系列开放模型、数据及库,旨在为各行业的专业代理式AI开发提供支持。该系列模型采用异构潜在混合专家架构,包含Nano、Super和Ultra三种规模,以帮助开发者大规模开发并部署可靠的多智能体系统。

Nemotron 3系列模型详情

Nemotron 3家族是一个覆盖从端侧到云端全场景需求的模型矩阵。

* Nemotron 3 Nano:现已发布。总参数量为300亿,推理时激活参数约为30亿。其核心定位是高效推理和边缘计算,可在消费级显卡上运行。通过混合专家架构,其吞吐量较前代Nemotron 2 Nano提升4倍。该模型在文本排行榜上得分1328,在开源模型中排名第47位。

* Nemotron 3 Super:预计于2026年上半年发布。总参数量约为1000亿,激活参数约100亿。其定位面向企业级应用和多智能体协作,预计将引入更高级的Latent MoE技术。

* Nemotron 3 Ultra:预计于2026年上半年发布。总参数量约为5000亿,激活参数约500亿。作为家族旗舰,其定位是处理复杂推理、科研和深度规划任务,旨在对标GPT-5级别的闭源模型。

核心技术架构

Nemotron 3并非单纯的Transformer模型,而是融合了Mamba(状态空间模型)、Transformer(注意力机制)和MoE(混合专家模型)的混合架构。

* 混合Mamba-Transformer架构:Mamba层负责处理海量上下文信息,具有线性计算复杂度和推理速度快的特点,使模型能支持100万token的超长上下文窗口。Transformer层则在关键节点处理需要高度逻辑推理和细节回调的任务。

* 混合专家模型:该架构将模型分为多个“专家”,在处理每个token时仅激活部分专家,从而在保留大模型能力的同时,大幅减少算力消耗。例如,Nemotron 3 Nano内部包含128个专家。

* NVFP4数据格式:Nemotron 3 Super和Ultra模型将采用英伟达专有的NVFP4格式进行训练和推理。该格式是Blackwell GPU架构的原生支持格式,相比FP16能将模型体积压缩3.5倍。英伟达通过两级缩放技术,在4-bit低精度下保持了模型性能。此举旨在将最高效的模型体验与英伟达的下一代硬件深度绑定。

配套工具与生态

英伟达同步推出了“NeMo Gym”强化学习实验室,并开源了训练数据集,为开发者构建AI智能体提供完整的工具链。公司表示,Nemotron系列旨在将先进AI转化为开放平台,支持开发者构建大规模代理系统。

收购SchedMD

英伟达宣布收购高性能计算与AI领域的资源调度软件公司SchedMD。SchedMD是开源工作负载管理系统Slurm的核心开发商。

* Slurm的地位:Slurm是全球广泛使用的资源调度工具,能够高效分配大规模计算集群的算力资源。全球超过半数的TOP500超级计算机、Meta、Mistral等科技公司以及众多AI创企都在使用Slurm。

* 战略意义:此次收购将英伟达的影响力从硬件层延伸至资源调度层。即使客户使用AMD或Intel的芯片,只要依赖Slurm进行算力调度,就仍处于英伟达生态的辐射范围内。英伟达承诺将继续保持Slurm的开源和供应商中立属性,但市场对其对Slurm-on-Kubernetes等关键项目的后续投入持观望态度。

发布时间

2025-12-16 16:25:00

相关推荐

评论 ( 0 )

3.3 W

文章

61.2 W

点赞

回顶部