扫码体验VIP
网站公告:为了给家人们提供更好的用户体验和服务,股票复盘网V3.0正式上线,新版侧重股市情报和股票资讯,而旧版的复盘工具(连板梯队、热点解读、市场情绪、主线题材、复盘啦、龙虎榜、人气榜等功能)将全部移至VIP复盘网,VIP复盘网是目前市面上最专业的每日涨停复盘工具龙头复盘神器股票复盘工具复盘啦官网复盘盒子股票复盘软件复盘宝,持续上新功能,目前已经上新至V6.5.7版本,请家人们移步至VIP复盘网 / vip.fupanwang.com

扫码VIP小程序
返回 当前位置: 首页 热点财经 不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律

股市情报:上述文章报告出品方/作者:新智元;仅供参考,投资者应独立决策并承担投资风险。

不换GPU,性能飙升2.8倍!英伟达用软件暴打摩尔定律

时间:2026-04-27 20:10
上述文章报告出品方/作者:新智元;仅供参考,投资者应独立决策并承担投资风险。



  新智元报道  

编辑:peter东
【新智元导读】MoE模型的稀疏激活本是优势,却常陷通信瓶颈。NVIDIA以软件为利剑,通过程序化依赖启动和全对全通信革新,在三个月内将GB200的单GPU吞吐提升2.8倍,真正释放Blackwell硬件潜力。

2026年1月8日,NVIDIA再次用硬核数据刷新AI推理的性能上限。

英伟达官网披露:基于Blackwell架构的推理软件栈升级,让混合专家模型(MoE)的推理效率迎来「阶跃式」突破——

单GPU吞吐飙升2.8倍,显著降低了推理成本。

GB200 NVL72:为MoE而生

英伟达为何这次能只使用软件升级就实现如此显著的性能提升,这归因于MoE模型的特殊性。

以DeepSeek-R1为例,这个6710亿参数的稀疏MoE模型,每次推理仅激活370亿参数(「稀疏激活」),看似「轻量」,实则暗藏算力挑战:专家模块间的动态路由需要高频数据交换,预填充(prefill)与解码(decode)阶段的计算负载差异大,传统架构极易因通信瓶颈或精度损失陷入「性能墙」。同时MoE架构中的多个模型需要频繁通信。

英伟达给出的应对之法,是在本身的硬件基础上,通过软件针对性升级,从而发挥出硬件的潜力。

图1:GB200 NVL72机柜

GB200 NVL72机架级平台是本次突破的「物理基石」。

它通过第五代NVLink互连72块Blackwell GPU,GPU之间具有1800GB/s双向带宽高速连接——这一设计是基于稀疏 MoE 架构模型专门进行的优化,相当于给72个「专家大脑」装上了「超高速神经突触」,让专家间的数据交换告别「拥堵」。

软件层面的更新,首先是NVFP4四比特浮点格式。

相比传统FP4,NVFP4通过NVIDIA自研的数值分布优化,在压缩数据量的同时,最大限度保留了模型精度(这对MoE的稀疏激活至关重要,避免因精度损失导致路由错误)。

配合硬件级NVFP4加速单元,Blackwell让模型使用低精度计算,但却能够相比其他 FP4 格式,具有更高的准确性。

图2:在 HGX B200 上,开启NVFP4与FP8时的吞吐量与交互性曲线对比

此外,「分解服务」(disaggregated serving)策略进一步释放了GB200的潜力:将预填充(计算密集型)与解码(内存密集型)分配到不同GPU组,利用NVLink Switch的灵活拓扑实现「计算-内存」解耦,避免单一资源成为瓶颈。

软件引擎
TensorRT-LLM三个月狂飙2.8倍吞吐

如果说硬件是「基础」,软件则是「引擎调校」。NVIDIA TensorRT-LLM开源库的近期优化,让GB200 NVL72在DeepSeek-R1上的单GPU吞吐,过去三个月直接飙升2.8倍。

具体来看,三大优化堪称「性能催化剂」:

1、程序化依赖启动(PDL) 

通过减少内核启动延迟,让GPU「时刻待命」,尤其在低交互性(高吞吐)场景下,显著降低「空转」损耗; 


2、底层内核优化 

针对Blackwell Tensor Core的微架构特性,重构计算流水线,让每一份算力都用在「刀刃」上; 


3、全对全通信原语革新 

消除接收端中间缓冲区,直接减少数据传输的「绕路成本」——这对MoE的专家间高频通信而言,相当于减少了延迟。

上述三项创新,使得GB200在运行DeepSeek R1时,相比2025年10月的软件版本,获得更高的吞吐量。

图3:软件更新给GB200带来的性能提升

随着AI从「能用」走向「好用」,用户对交互性的要求激增——聊天机器人要「秒回」,代码助手要「实时补全」,而吞吐量的上升,意味着更低的延迟。

小机柜也适用,
HGX B200也能跑满足DeepSeek

并非所有场景都需要GB200 NVL72这样的包含72块显卡的「巨无霸」。

对于风冷部署的企业或云服务商,NVIDIA HGX B200(8卡Blackwell)同样交出了惊艳答卷——其核心武器是多token预测(MTP)NVFP4的组合拳。

传统推理中,模型逐token生成,每一步都要等待前一步完成;而MTP通过预测多个候选token(而非单个),让GPU在一次计算中覆盖更多生成步骤,相当于在解码任务时批量处理,一次思考,多步输出

图4:MTP及不同精度带来的性能提升

实测显示,在1K/1K、8K/1K、1K/8K等多种输入输出序列组合下,MTP均显著提升了吞吐量,且交互性越高(延迟要求越严),收益越明显。

当MTP遇上NVFP4,性能增益被进一步放大。NVFP4不仅通过四比特压缩降低内存带宽压力,更依托Blackwell的张量核心实现高效计算。

结合TensorRT-LLM与TensorRT Model Optimizer的全栈支持,HGX B200在保持精度的前提下,吞吐曲线随MTP NVFP4的启用持续右移——意味着在相同交互性下能服务更多用户,或在相同用户数下提供更流畅的体验。

对企业与云服务商而言,现有Blackwell GPU通过软件升级即可获得2.8倍吞吐提升,相当于「免费扩容」,大幅延长硬件生命周期;对模型开发者,TensorRT-LLM 提供了一个高级的API。

原生PyTorch架构给开发者提供了兼具易用性与扩展性的结果,这降低了优化门槛,让更多人能聚焦模型创新而非底层调优

这种「不依赖换硬件就能升级性能」的能力,让英伟达在专业显卡领域的护城河相比AMD,英特尔等竞争者更深。

Blackwell架构 TensorRT-LLM的组合,在MoE推理问题上,做到了在「高精度、低延迟、高吞吐、低成本」间的既要又要。英伟达的护城河不止是芯片,更是那套能「从石头里榨出血来」的软件生态。

股票复盘网
当前版本:V3.0