
事件:
英伟达发布FY26Q2季报,本季营收467亿美元,同比 56%/环比 6%,剔除H20相关费用影响后毛利率为72.3%,按剔除影响后同比-3.4pcts/环比 1pct。综合财报及交流会议信息,总结要点如下:
评论:
1、FY26Q2营收及毛利率符合预期,尚未向中国境内客户销售H20产品。
FY26Q2营收467亿美元,同比 56%/环比 6%,符合指引预期(450亿美元),公司FY26Q2向中国境外的一位非受限客户销售约6.5亿美元的H20产品,并由此释放了此前计提的约1.8亿美元库存,但未向中国境内客户销售H20产品;non-GAAP毛利率为72.7%,剔除H20相关费用影响后为72.3%,超指引预期,剔除后同比-3.4pcts/环比 1pct,同比下降主要系相较于去年Hopper HGX,今年Blackwell架构营收主要来自完整数据中心系统,环比上升主要系FY26Q1计提H20过剩库存和采购义务相关的45亿美元费用;非GAAP运营费用增长6%,系计算和基础设施成本、薪酬福利支出增加。7月末美国政府开始审核向中国客户销售H20的许可证,过去几周部分中国客户已获得许可证,但英伟达尚未据此出货H20。
2、H20影响计算产品季度环比表现,网络产品维持高增长态势。
1)数据中心:营收411亿美元,同比 56%/环比 5%,同环比高增长主要系LLM、推荐引擎、生成式和Agentic AI应用对于公司加速计算平台的需求。Blackwell架构环比增长17%,大型云服务提供商占数据中心部门营收约50%,中国大陆占比降至低个位数。数据中心计算产品营收338亿美元,同比 50%/环比-1%,H20产品营收减少40亿美元。网络产品营收73亿美元,同比 98%/环比 46%,主要系GB200系统与GB300系统的NVLink计算架构技术和XDR infiniBand产量增长,以及云服务商/消费互联网公司持续采用以太网AI解决方案;2)游戏和AIPC:营收43亿美元,同比 49%/环比 14%,主要系Blackwell架构产品爬坡及供应改善驱动,本季度发售的GeForce RTX 5060桌面GPU为全球玩家带来双倍性能与光追、神经渲染及DLSS 4技术;3)专业可视化:营收6.01亿美元,同比 32%/环比 18%,同比增长主要系高端RTX工作站GPU及AI驱动工作负载驱动;4)汽车和机器人:营收5.86亿美元,同比 69%/环比 3%,同比增长主要系自动驾驶平台驱动,已开始交付Orin继任产品NVIDIA Thor芯片,将推动全栈自动驾驶软件平台量产,有望带来数十亿美元新收入。
3、指引FY26Q3营收同环比增长,地缘问题若解决H20收入20-50亿美元。
FY26Q3营收指引中值为540亿美元(±2%),同比 53.9%/环比 15.5%,营收展望未计入任何向中国客户发货的H20产品,若地缘政治问题得到解决,我们预计可在第三季度实现20亿至50亿美元的H20产品发货收入;毛利率指引为73.5%(±0.5pct),同比-1.5pct/环比 0.8pct,预期本财年毛利率仍处于75%水平。上调运营费用率同比增长至40%(此前指引35%),主要系加速业务投资应对重大增长机遇。
4、指引远期全球AI基础设施支出3-4万亿美元,中国大陆市场CAGR约50%。
1)全球及中国市场:英伟达预计今年CSP等 Capex约6000亿美元,指引到本十年末全球AI基础设施支出将达到3-4万亿美元;英伟达表示中国大陆是全球第二大计算市场,预计市场规模约500亿美元,CAGR约50%,与全球AI市场一致。英伟达正与美国政府沟通,强调美国企业开拓中国市场的重要性,未被列入实体清单的中国企业已可获得H20的销售许可,且已有多家企业获得许可证,未来Blackwell中国特供版销售也有希望开展。2)Blackwell、GB200与GB300:Blackwell的机架式NVLink与CUDA全栈架构通过重新定义推理经济性,头部模型开发公司正将GB200 NVL72用于数据中心规模的下一代模型训练与生产环境中的推理模型部署,全新Blackwell Ultra平台本季度创收数十亿美元,GB300已经开始批量出货,主要云服务提供商向全新GB300机架式架构的过渡进展顺利,工厂已成功升级改造支持GB300的产能提升,产能恢复至满产运行,预计第三季度产量将进一步提升,25H2该产品将实现广泛市场供应,CoreWeave正推出第三代GB300,GB300平台上全新的NVFP4 4位精度与NVLink72技术,使每token能效较Hopper提升50倍。3)Rubin:Rubin平台芯片已进入晶圆制造阶段,包括Vera CPU、Rubin GPU、CX9 SuperNIC、NVLink 144扩展交换机、Spectrum-X扩展与跨域交换机,以及硅光子处理器,Rubin仍按计划将于明年实现批量生产。4)RTX PRO服务器:RTX PRO服务器已全面量产,采用风冷设计、基于PCIe架构,产品线有望成长为价值数十亿美元的核心业务。
投资建议:建议关注国际GPU龙头英伟达及其产业链标的,关注服务器硬件层面所涉及到的系统组装、GPU、CPU、存储、高速连接器和电光连接、PCB/IC载板、散热、电源、各类辅助芯片等零部件的投资机会,并关注国内寒武纪、海光信息等国产GPU/CPU厂商和华为昇腾等自主算力产业链相关公司,以及先进制造/封装和HBM等产业链机会。
风险提示:竞争加剧风险、政策与贸易摩擦风险、技术更新与产品周期风险、宏观经济与行业景气度风险。
(后附FY2026Q2业绩说明会纪要全文)
附录:英伟达FY2026Q2业绩说明会议纪要
时间:2025年8月28日
出席:
Colette Kress-EVP&CFO
Jensen Huang-CEO&President
Toshiya Hari-IR
会议纪要根据公开信息整理如下:
业绩概述:在持续动态变化的外部环境中,英伟达再次实现了创纪录的季度业绩。公司总营收达467亿美元,超出预期,且所有市场平台均实现环比增长。
数据中心:营收同比增长56%。尽管H20营收减少40亿美元,但数据中心营收仍实现环比增长。
英伟达Blackwell平台销量创下纪录,环比增长17%。公司已于第二季度开始批量出货GB300。英伟达为云服务提供商、新兴云厂商、企业及主权国家打造的AI解决方案,均为业绩增长作出贡献。当前,公司正处于一场将改变所有行业的工业革命开端。
公司预计,到本十年年末,全球AI基础设施支出将达到3万亿至4万亿美元。此类基础设施建设的规模与范围,为公司带来了重大的长期增长机遇。GB200NVL系统获得广泛采用,已部署于云服务提供商与消费互联网企业。OpenAI、Meta、Mistral等顶尖模型开发机构,正将GB200NVL72用于数据中心规模的下一代模型训练与生产环境中的推理模型部署。全新Blackwell Ultra平台本季度表现强劲,创收数十亿美元。
由于GB300与GB200在架构、软件及物理布局上具有共享特性,主要云服务提供商向GB300的过渡过程十分顺畅,能够轻松搭建并部署GB300机架。向全新GB300机架式架构的过渡进展顺利。7月末至8月初的工厂生产已成功改造,以支持GB300的产能提升,目前已启动全面量产。
当前产能已恢复至全速水平,每周约生产1000个机架。随着更多产能投入使用,预计第三季度产量将进一步提升。预计今年下半年该产品将实现广泛市场供应,CoreWeave正准备将第三代GB300实例推向市场,相较于H100,其推理模型性能已提升10倍。与上一代Hopper相比,GB300与VL72AI工厂每瓦token的能效预计提升10倍,这对受电力限制的数据中心而言,直接转化为营收增长。
Rubin平台的芯片已进入晶圆制造阶段,包括Vera CPU、Rubin GPU、CX9 SuperNIC、NVLink 144扩展交换机、Spectrum-X扩展与跨域交换机,以及硅光子处理器。Rubin仍按计划将于明年实现批量生产。Rubin将是英伟达第三代NVLink机架式AI超级计算机,拥有成熟且全面的供应链。这使公司能够保持每年一款新产品的节奏,并在计算、网络、系统与软件领域持续创新。
7月末,美国政府开始审核向中国客户销售H20的许可证。过去几周,部分中国客户已获得许可证,但英伟达尚未依据这些许可证出货H20。美国政府官员表示,期望从获得许可的H20销售营收中收取15%的份额,但截至目前,美国政府尚未发布相关法规对该要求进行证实。
由于仍在处理地缘政治相关问题,英伟达未将H20纳入第三季度展望。若地缘政治问题得到缓解,第三季度H20营收有望达到20亿至50亿美元;若订单量增加,公司的营收规模也将相应提升。英伟达持续倡导美国政府批准向中国市场销售Blackwell产品。公司的产品设计与销售均出于有益的商业用途,每一笔获得许可的销售都将为美国经济与美国的领先地位带来益处。
在竞争激烈的市场中,英伟达希望赢得每位开发者的支持。若美国能在全球范围内参与竞争,美国的AI技术栈有望成为全球标准。值得注意的是,本季度Hopper100与H200出货量有所增加。此外,第二季度英伟达还向中国境外不受限制的客户销售了约6.5亿美元的H20。
Hopper需求的环比增长表明,加速计算所支持的数据中心工作负载范围广泛,同时也体现了CUDA库与全栈优化的强大能力,这些技术持续提升英伟达平台的性能与经济价值。在同时交付Hopper与Blackwell GPUs的过程中,英伟达正专注于满足全球激增的需求。云厂商与企业的资本支出为这一增长提供了动力,仅今年一年,他们在数据中心基础设施与计算领域的投资就有望达到6000亿美元,两年内几乎实现翻倍。英伟达预计,受多重因素驱动,AI基础设施年度投资将持续增长,包括推理型智能体AI对训练与推理计算需求的数量级提升、全球主权AI建设、企业AI应用普及,以及物理AI与机器人技术的兴起。
Blackwell已树立标杆,成为AI推理性能的新标准。随着推理型AI与智能体AI在各行业获得认可,AI推理市场正快速扩张。Blackwell的机架式NVLink与CUDA全栈架构通过重新定义推理经济性,满足了这一市场需求。GB300平台上全新的NVFP4 4位精度与NVLink72技术,使每token能效较Hopper提升50倍,助力企业以前所未有的规模实现计算。
例如,对GB200基础设施投入300万美元,可产生3000万美元的token营收,回报率达10倍。自发布以来,英伟达的软件创新结合开发者生态系统的优势,已使Blackwell的性能提升超过2倍。CUDA、TensorRT LLM与Dynamo的技术进步释放了最大效率。开源社区对CUDA库的贡献,以及英伟达的开源库与框架,现已融入数百万个工作流。英伟达与全球社区之间这种协作创新的强大飞轮效应,巩固了英伟达在性能方面的领先地位。
英伟达是OpenAI模型、数据与软件的主要贡献者。Blackwell为大型语言模型预训练引入了突破性的数值计算方法。借助NVFP4技术,GB300上的计算速度较采用FP8的H100提升7倍。这一创新实现了16位精度的准确性与4位精度的速度及效率,为AI效率与可扩展性树立了新标准。AI行业正迅速采用这项革命性技术,AWS、谷歌云、微软Azure、OpenAI,以及Cohere、Mistral、KimiAI、Perplexity、Reflection、Runway等主要企业均已开始应用。在最新的MLPerf训练基准测试中,GB200包揽所有项目冠军,进一步印证了英伟达的性能领先地位。请关注将于9月发布的MLPerf推理测试结果,其中将包含基于Blackwell Ultra的基准数据。
英伟达RTX PRO服务器已全面量产,供应给全球系统制造商。这些服务器采用风冷设计,基于PCIe架构,可无缝集成到标准IT环境中,既能运行传统企业IT应用,也能支持最先进的智能体AI与物理AI应用。包括多家全球领先企业在内的近90家公司已开始采用RTX PRO服务器:日立将其用于实时仿真与数字孪生,礼来用于药物研发,现代用于工厂设计与自动驾驶汽车验证,迪士尼用于沉浸式叙事。
随着全球企业加速数据中心现代化进程,英伟达RTX PRO服务器产品线有望成长为价值数十亿美元的核心业务。主权AI战略持续升温——各国通过本土基础设施、数据与人才自主构建人工智能能力的需求,为英伟达创造了重大发展机遇。在欧洲市场,英伟达正主导多项标志性创新计划:欧盟宣布投资200亿欧元,在法国、德国、意大利和西班牙建设20座人工智能工厂(含5座超级工厂),旨在将区域AI计算基础设施规模扩大十倍;英国最新部署的伊桑巴德AI超级计算机采用英伟达技术,以21 exaflops的算力成为该国最强AI系统,显著加速药物发现与气候建模领域的突破性研究。
财务表现:英伟达预计今年主权AI相关收入将突破200亿美元,较去年增长逾一倍,网络业务营收达73亿美元创历史纪录。该业务环比增长46%,同比增长98%,Spectrum-X以太网、InfiniBand和NVLink产品需求强劲。我们的Spectrum-X增强型以太网解决方案为以太网AI工作负载提供了最高吞吐量和最低延迟网络。
Spectrum-X以太网实现两位数环比及同比增长,年化收入突破100亿美元。我们在Hot Chips大会上推出的Spectrum-XGS技术,可将异构数据中心整合为千兆级AI超级工厂。首批用户CoreWeave的GPU间通信速度预计提升一倍。
InfiniBand收入环比增长近一倍,主要受益于XDR技术应用,带宽为前代两倍,,这对模型构建至关重要。全球最快交换机NVLink带宽达PCIe Gen 5的14倍,随着Blackwell NVLink机架系统部署推进,业务持续强劲增长。NVLink Fusion技术支持半定制AI基础设施获业界认可,日本FugakuNEXT超算将借此融合富士通CPU与英伟达架构,支撑AI、超算与量子计算多元负载。
FugakuNEXT已加入采用NVIDIA CUDA-Q量子平台的顶尖量子超算与研究机构行列(含ULiC、AIST、NNF和NERSC),并获得包括AWS、Google Quantum AI、Quantinuum、Q-Ctrl和SciQuantum在内的超300家生态伙伴支持。同期推出的机器人计算平台Thor较NVIDIA AGX Orin实现AI性能与能效的数量级提升,可在边缘端实时运行最新生成式与推理AI模型,推动尖端机器人技术落地。
NVIDIA机器人全栈平台采用率加速增长,已获超200万开发者及1,000余家硬件、软件与传感器合作伙伴采用。各行业领军企业包括Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic和Meta均已部署Thor平台。机器人应用对设备端与基础设施算力需求的指数级增长,为数据中心平台带来持续长期需求动力。
搭载Cosmos的NVIDIA Omniverse是专为机器人与机器人系统开发打造的数据中心物理AI数字孪生平台。本季度我们宣布与西门子扩大合作,共同推动AI自动工厂发展。欧洲领先机器人企包括Agile Robots、Neuro Robotics和Universal Robots正基于Omniverse平台推进最新创新。按地域划分,中国区数据中心收入环比降至个位数占比。
游戏和AIPC:第三季度展望未含对华H20发货。新加坡营收占Q2收入22%,其中超99%新加坡数据中心收入最终服务美国客户。游戏业务营收创43亿美元纪录,环比 14%,同比 49%,增长源于Blackwell架构GeForce GPU产能爬坡及供应改善。本季度发售的GeForce RTX 5060桌面GPU为全球玩家带来双倍性能与光追、神经渲染及DLSS 4技术。Blackwell架构将于9月登陆GeForce Now,提供RTX 5080级性能、超低延迟及5K/120帧体验。
GeForce Now游戏库已扩容至超4,500款作品,成为全球最大云游戏平台。设备端AI在RTX GPU性能最优,我们与OpenAI合作优化开源GPT模型,使其在数百万RTX Windows设备实现高效推理。开发者可依托RTX架构为全球最大AI PC用户群构建应用。
专业可视化:营收6.01亿美元,同比 32%,,增长由高端RTX工作站GPU及AI驱动工作负载(设计/仿真/原型制作)推动。动视暴雪用其增强创意流程,Figure AI通过嵌入式RTX GPU为人形机器人提供算力。
汽车:车载计算达5.86亿美元,同比 69%,主要受自动驾驶方案驱动。我们已开始交付Orin继任产品NVIDIA Thor芯片。Thor推出恰逢行业向视觉/语言模型、生成式AI及高阶自动驾驶转型,是我们迄今最成功的自动驾驶计算平台。Thor将推动全栈自动驾驶软件平台量产,为英伟达开辟数十亿美元新收入的同时提升车辆安全与自主性。
毛利率:GAAP毛利率为72.4%,非GAAP毛利率为72.7%。这些数据包含因释放此前预留的H20库存带来的1.8亿美元收益。若剔除该收益,非GAAP毛利率应为72.3%,仍超出我们预期。
运营费用:GAA基准下环比增长8%,非GAAP基准环比增长6%,主要源于计算与基础设施成本上升,以及薪酬福利支出增加。为支持Blackwell及Blackwell Ultra产能爬坡,第二季度库存从110亿美元增至150亿美元。
股票回购和现金股息:通过股票回购与现金股息向股东返还资本达100亿美元。董事会新批准600亿美元股票回购授权,叠加第二季度末既存的147亿美元未使用授权。
FY25Q3展望
营收:预计为540亿美元,上下浮动2%,预计环比增长超70亿美元,其中未计入任何向中国客户发货的H20产品。
毛利率:GAAP与非GAAP毛利率预计分别为73.3%和73.5%,上下浮动50个基点。我们仍维持年末非GAAP毛利率达75%左右的预期。
运营费用:GAAP与非GAAP运营费用预计分别为59亿和42亿美元。全年运营费用同比增幅预计升至近40%,较此前约35%上调,主要因加速业务投资以捕捉重大增长机遇。
其他收支:GAAP与非GAAP其他收支预计约5亿美元收益。
税率:GAAP与非GAAP税率预计为16.5%,上下浮动1%。
Q&A:
Q:从宏观视角上对2026年增长有什么展望?对于网络数据中心的业务有何看法?
A:最高的增长因素是推理式、代理式AI的发展和引入,过去的聊天机器人是单次交互式的:它根据你给出的一个提示生成一个回答;现在的AI会进行研究、思考和制定计划,还可能使用工具,这被称为“长思考“,思考时间越长,通常产生的答案就越好。单次交互与推理式、代理式AI模型所需的计算量可能相差百倍、千倍,甚至更多,具体取决于它需要进行的调研和阅读理解工作。因此,由代理式AI带来的计算量增长是巨大的,其效果也显著提升。代理式AI使得幻觉现象已大幅减少,它现在可以使用工具并执行任务,这为企业市场打开了大门。由于代理式AI和视觉语言模型,我们现在在物理AI和机器人技术、自主系统领域看到了突破。过去一年,AI取得了巨大进步。代理式系统、推理式系统完全是革命性的。我们为这一刻构建了Blackwell NVLink72系统,一个机架级计算系统。去年,我们完成了从NVLink8到现在的NVLink72的转型。将NVLink72解耦成一个机架级系统极其困难,但成果非凡。我们看到在token生成上的速度提升达到数量级,因此能源效率和成本效益也显著提高。
从较长期视角看,在未来五年,我们将通过Blackwell、Rubin及其后续产品,扩展到大约3万亿到4万亿美元的AI基础设施市场机遇。过去几年,仅前四大云服务提供商的资本支出就翻了一番,增长到约6000亿美元。因此,我们正处于这场建设热潮的开端,而AI技术的进步确实使AI能够被采纳并解决众多不同行业的问题。
Q:对于达成中国市场的20亿到50亿美元的H20需要满足什么条件?进入第四季度后,中国业务的可持续节奏是怎样的?您是否认为市场可能更多地向ASIC而非英伟达GPU转移?客户是如何管理使用商用硅和ASIC之间的分配?
A:市场对H20有需求,我们不仅已经获得了一些初步的许可证,还有供应准备就绪。因此我们认为本季度可能出货约20亿至50亿美元。
我们仍在等待解决一些地缘政治问题,这些问题在政府与试图确定采购意向的公司之间来回交涉。所以目前情况尚不明朗。我们并不完全确定本季度的最终出货量会是多少,如果有更多需求出现、更多许可获批,我们当然也可以生产更多H20并出货。
英伟达构建的东西与ASIC非常不同。ASIC启动了很多项目、创建了许多初创公司,但真正投入生产的产品很少。原因在于这真的很难。加速计算不同于通用计算。你不是写个软件然后编译到处理器上就行的。
加速计算是一个全栈协同设计问题。过去几年,由于问题规模急剧扩大,AI工厂变得异常复杂。这确实是世界上有史以来最极端、最复杂的计算机科学问题,这很明显。因此,技术栈非常复杂。
模型的变化速度惊人——从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型,再到多模态模型。正在涌现的不同模型数量,无论是Transformer的变种还是演进版本,都令人望而生畏。我们的一个优势是英伟达的解决方案在所有云上都可用。我们可以通过每家计算机公司获取。
我们从云端到本地到边缘再到机器人,都使用相同的编程模型。因此,世界上每个框架支持英伟达是顺理成章的。当你构建一个新的模型架构时,在英伟达平台上发布是最合理的。因此,我们平台的多样性,既体现在能够演进适应任何架构的能力上,也体现在我们无处不在的覆盖面上,同时我们还加速了整个流程,从数据处理、预训练、后训练一直到推理的所有环节。
当你建立一个包含英伟达平台的数据中心时,其效用是最佳的。其使用寿命也长得多。最后我想说的是,除此之外,这确实是一个极其复杂的系统工程问题。人们谈论芯片本身。
很多人谈论的是一个ASIC,即GPU。但为了构建Blackwell平台,以及Rubin平台,我们必须构建能够连接高速内存的CPU、用于大型知识库缓存所需的极低能耗内存、GPU、SuperNIC、我们称为NVLink的纵向扩展交换机、横向扩展交换机,以及现在的跨规模交换机,以便为这些拥有数千兆瓦计算能力、全部连接在一起的AI超级工厂做准备。我们称之为Spectrum-XGS,我们本周在Hot Chips大会上刚刚发布了它。我们所做的一切的复杂性和复杂度真的非常惊人。
最后,如果我能再说一点,我们在每个云上都可用是有充分理由的。我们不仅是能源效率最高的平台,我们的每瓦性能也是所有计算平台中最好的。在一个电力受限的数据中心世界里,每瓦性能直接关系到收入。在很多方面,你买的越多,增长就越多。因为我们每美元投入带来的性能惊人地好。你还能获得极高的利润率。因此,采用英伟达架构的增长机会和毛利率机会绝对是最好的。因此,英伟达被每个云、每个初创公司和每家计算机公司选择,有很多理由。我们确实是一个为AI工厂提供的全面的、全栈式解决方案。
Q:您预计英伟达在其中所占的市场份额是多少?对于实现3万亿至4万亿美元支出目标可能面临的瓶颈,如电力供应等问题,您有何见解?
A:仅头部四家超大规模厂商的资本支出,在两年内便实现了翻倍。随着AI革命的全面推进以及AI竞争的加剧,资本支出已增至每年6000亿美元。当前至尚有五年时间,而这6000亿美元仅代表头部四家超大规模厂商的支出,企业本地数据中心建设、全球云服务提供商的扩张等均未涵盖在内。美国目前的计算规模约占全球的60%,从长期来看,人工智能的发展应与GDP规模及增长相匹配,且无疑将推动GDP增长。
英伟达在AI基础设施中的贡献占比较高。以一个吉瓦的AI工厂为例,成本约为500亿至600亿美元,英伟达产品的占比约为35%左右。需要着重强调的是,英伟达提供的并非单一GPU。尽管外界熟知英伟达发明并生产GPU,但在过去十年间,英伟达已转型为一家AI基础设施公司。打造一套RubinAI超级计算机,需要六种不同类型的芯片,若要扩展至千兆瓦规模,则需要数十万个GPU计算节点与大量机架。
因此,英伟达本质上是一家AI基础设施公司,期望继续为行业发展贡献力量,提升AI的实用性。尤其关键的是,推动每瓦性能提升。未来AI基础设施建设很可能始终受到电力制约,故而需要最大限度挖掘工厂效能。英伟达的每单位能耗性能,直接决定着工厂的营收增长,例如,100兆瓦工厂的营收,完全由每100兆瓦的token生成量所决定。
此外,英伟达在单位美元性能方面优势显著,客户也因此能够获得极高的利润率。电力等瓶颈确实存在,未来五年3万亿至4万亿美元的支出规模具有合理性。
Q:能否谈谈中国市场的长期前景?英伟达在中国市场的增长潜力有多大?最终获得Blackwell架构在中国市场的许可对贵公司有多重要?
A:在中国市场方面,若英伟达能够提供具有竞争力的产品,今年对公司而言存在500亿美元规模的业务机遇。若今年该市场规模达到500亿美元,预计其增长率将与全球AI市场一致,即每年约50%。
中国是全球第二大计算市场,也是AI研究的重要地区,全球约50%的AI研究人员身处中国,且绝大多数顶尖开源模型也诞生于中国。因此,美国科技企业开拓中国市场具有重要意义。
众所周知,开源技术虽在一国诞生,却能服务全球。中国的开源模型质量颇高,DeepSeek已获得全球认可,Qwen、Kimi等模型也表现出色,此外还有众多新推出的多模态模型与优秀语言模型。这些模型极大地推动了全球企业的AI应用。对于希望构建自定义专有软件栈的企业而言,开源模型至关重要;SaaS企业构建专有系统同样离不开开源模型;并且,开源模型还推动了全球机器人技术的发展。
因此,开源技术意义重大,美国企业也应参与这一市场。中国市场规模将十分庞大。英伟达正与美国政府沟通,强调美国企业开拓中国市场的重要性。目前,未被列入实体清单的中国企业已可获得H20的销售许可,且已有多家企业获得许可证。英伟达认为向中国市场推出Blackwell产品具有较大可能性。公司将继续倡导这一合理诉求,助力美国科技企业在AI竞争中保持领先地位,推动美国技术栈成为全球标准。
Q:如何看待Spectrum XGS的市场机遇?是否可将其视为数据中心互联层解决方案?在以太网产品组合中,该技术的规模定位如何?
A:英伟达目前提供三种网络技术,分别适用于scale up、scale out与scale across场景。
第一种是用于构建最大虚拟GPU的scale up,NVLink具有革命性意义。正是NVLink72技术,使Blackwell相较采用NVLink 8的Hopper实现了代际飞跃。在当前“深度思考”模型、智能体AI、推理系统兴起的背景下,NVLink大幅提升的内存带宽对推理系统至关重要,因此NVLink72表现十分出色。
第二种是用于scale out的网络技术,英伟达提供两种方案。其一为InfiniBand,其无疑是延迟最低、抖动最小、扩展性能最佳的网络技术,但需要专业团队进行管理。对于超级计算与顶尖模型开发机构而言,Quantum InfiniBand是毋庸置疑的首选,若对AI工厂进行基准测试,采用InfiniBand的工厂性能最佳。其二是针对以太网数据中心的Spectrum以太网,这种以太网并非现成产品,而是集成了多种降低延迟、减少抖动与拥塞控制的新技术,性能可大幅接近InfiniBand,英伟达将其命名为SpectrumX以太网。
第三种是Spectrum XGS技术,用于将多个数据中心、多个AI工厂整合为一,实现scale across。网络技术在AI工厂中至关重要,选择合适的网络技术,可将性能从65%提升至85%或90%,这种性能提升实际上使网络成本“归零”。选择合适的网络技术,投资回报率极高。如前所述,1吉瓦AI工厂成本约500亿美元,提升10%的效率就相当于创造100亿至200亿美元的实际收益。
因此,网络业务是英伟达重点投入的领域,这也是五年半前公司收购Mellanox的原因。正如之前提到的,Spectrum-X业务规模已相当可观,且推出仅一年半时间,无疑是一次巨大成功。NVLink用于scale up、Spectrum-X与InfiniBand用于scale out、Spectrum-XGS用于scale across,这三项技术未来都将有出色表现。
Q:这70亿美元环比增长中绝大部分来自数据中心业务,应如何将其分配至Blackwell、Hopper及网络业务?Hopper增长势头是否可持续?这70亿增量具体如何在这三大板块中拆解?
A:展望我们第二季度至第三季度的增长,Blackwell仍将占据我们数据中心业务的最大份额。但请注意,这不仅推动我们的计算业务,也促进网络业务增长,因为我们正在销售包含NVLink技术的重要系统。Hopper产品我们仍在销售——包括H100和H200,它们属于HDX系统。但我依然认为Blackwell将成为我们业务的主要贡献者。因此我们将持续推动相关业务。
关于本季度具体收官细节我们暂无更多信息可分享,但您可以预期Blackwell将继续成为增长的主要驱动力。
Q:您是否可以进一步说明如何看待Rubin产品的未来转型——该产品为客户提供了哪些增量能力?从性能与能力视角看,您认为Rubin相较于Blackwell而言是升级幅度如何?
A:我们采用年度迭代周期以加速成本降低并最大化客户收益。通过提升每瓦性能,我们直接推动客户收入增长,Blackwell的推理系统每瓦性能较Hopper提升一个数量级,这意味着在同等能耗限制下,采用Blackwell的数据中心能实现远超历史与全球现有方案的收益。同时,其卓越的每美元性能将进一步提升客户毛利率。
我们建议客户以年度节奏规划数据中心建设,因为每一代新架构都能通过创新理念提升收益能力、AI性能与利润率。Rubin已孕育大量突破性创意,而当前重心正全力推进GB200及GB300的数据中心部署。
今年已是破纪录之年,明年预计再创新高。我们一方面持续提升AI性能迈向人工超级智能,另一方面不断增强超大规模客户的收益能力。
Q:您刚才提及AI市场复合年增长率为50%。我想了解您对明年增长的可预见性如何?这一增长率是否可作为衡量您数据中心业务明年收入增长的合理基准?
A:我们从大型客户那里获得了对明年的合理预测,这是一个非常显著的预期。我们仍在不断赢得许多新业务,还有大量初创企业正在涌现。去年AI原生初创企业获1000亿美元融资,而今年未结束已录得1800亿美元。观察顶级AI原生初创企业营收:去年20亿美元,今年200亿美元——明年达到今年十倍并非不可想象。
开源模型正推动大型企业、SaaS公司、工业企业和机器人公司加入AI革命,形成新增长源。无论是AI原生企业、企业SaaS、工业AI或初创公司,均显现对AI的巨大兴趣与需求。当前行业热潮众所周知:全线产品售罄——H100与H200均告售罄, CSP甚至开始向同业租用算力。AI原生初创企业正全力争夺算力以训练推理模型,需求极为旺盛。
长期来看,资本支出两年内翻倍,目前仅超大规模企业年支出即达6000亿美元。若我们能在此6000亿美元中占据显著份额是合理的。因此我认为未来几年乃至整个十年都将保持高速增长态势。
总结:
Blackwell作为全球期待的新一代AI平台实现代际飞跃。NVIDIA NVLink 72机架级计算具有革命性意义;恰逢推理AI模型推动算力需求增长一个数量级之际问世。Blackwell Ultra全速推进且需求强劲,下一代平台Rubin已进入晶圆厂生产:六款新芯片完成台积电流片,将构建第三代NVLink机架级AI超算与成熟供应链。Blackwell与Rubin平台将持续扩展,本世纪末全球AI工厂规模达3-4万亿美元。
客户AI工厂规模持续升级:从数兆瓦数据中心的数千个Hopper GPU,到100兆瓦设施的数十万个Blackwell GPU,即将实现数百万个Rubin GPU驱动多吉瓦超级工厂。代际需求持续增长:聊天机器人演进为具备研究、规划与工具使用能力的推理代理AI,推动训练与推理算力需求跃升数量级。代理AI成熟开启企业市场新局,各企业构建领域专属AI代理。物理AI时代解锁机器人与工业自动化新行业,工业企业需建造两座工厂:生产机器与制造机器人AI。英伟达本季度创营收纪录,标志征程里程碑。新工业革命启动,AI竞赛全面展开。


VIP复盘网