扫码体验VIP
网站公告:为了给家人们提供更好的用户体验和服务,股票复盘网V3.0正式上线,新版侧重股市情报和股票资讯,而旧版的复盘工具(连板梯队、热点解读、市场情绪、主线题材、复盘啦、龙虎榜、人气榜等功能)将全部移至VIP复盘网,VIP复盘网是目前市面上最专业的每日涨停复盘工具龙头复盘神器股票复盘工具复盘啦官网复盘盒子股票复盘软件复盘宝,持续上新功能,目前已经上新至V6.5.3版本,请家人们移步至VIP复盘网 / vip.fupanwang.com

扫码VIP小程序
返回 当前位置: 首页 热点财经 硬刚黄仁勋!AMD祭出「千倍算力大杀器」,「反黄联盟」崛起

股市情报:上述文章报告出品方/作者:新智元;仅供参考,投资者应独立决策并承担投资风险。

硬刚黄仁勋!AMD祭出「千倍算力大杀器」,「反黄联盟」崛起

时间:2026-01-06 20:02
上述文章报告出品方/作者:新智元;仅供参考,投资者应独立决策并承担投资风险。



  新智元报道  

编辑:艾伦 KingHZ
【新智元导读】CES现场,苏姿丰投下震撼弹:四年内AI算力将提升1000倍! 面对英伟达的封锁,AMD不再隐忍,直接祭出Helios「太阳神」机架与MI455X芯片,以单代性能暴涨10倍的「暴力美学」正面硬刚。从Yotta级计算宏图到128GB统一内存的PC怪兽,AMD正用一场史无前例的算力狂飙,试图彻底重写AI世界的权力版图。

今日是美国拉斯维加斯举办的消费电子展(CES)主旨演讲日,更是全球科技产业权力版图剧烈震荡的一天。

几个小时前,身着标志性皮衣的英伟达CEO黄仁勋刚刚走下舞台,留下了令竞争对手窒息的Vera Rubin平台和Agentic AI的宏大愿景,仿佛一位刚刚巡视完疆土的帝王。

然而,聚光灯并未就此熄灭。

之后,所有的目光转向了AMD的掌门人苏姿丰(Lisa Su)。

这位总是身着干练西装、在男性主导的半导体世界中杀出重围的女性,正准备在发布会上,向那个看似不可战胜的「绿色帝国」发起这一代最猛烈的冲锋。

这是算力世界「双城记」的缩影。

一边是英伟达,试图通过封闭的生态、极致的垂直整合构建起不可逾越的「围墙花园」,将数据中心变成只属于它的黑色方尖碑;

另一边是AMD,试图通过结盟、开放标准和堆料极致的硬件,率领着包括OpenAI、微软、Meta在内的「复仇者联盟」,试图在铁幕上撕开一道口子。

这场发布会早已超越了摩尔定律的线性叙事。

AMD在今天发布的除了芯片本身,更是一整套试图打破英伟达垄断的蓝图。

在深入解读AMD的突围之前,我们必须先审视那道横亘在AMD心头的巨大阴影——英伟达刚刚发布的Vera Rubin平台。

了解对手的强大,才能理解AMD此次反击的悲壮与战略价值。

以天文学家之名,封锁宇宙

就在AMD发布会开始前,黄仁勋展示了英伟达的下一代核武:Vera Rubin

这个名字本身就充满了隐喻——Vera Rubin是证实暗物质存在的著名天文学家,而英伟达正试图掌控AI宇宙中那些「看不见」但决定一切的力量:数据流动的引力。

根据现场披露的信息,Vera Rubin平台严丝合缝、甚至精密得令人窒息。

它由三个核心组件构成,每一个都直指AMD的要害:

(1) Rubin GPU:这是英伟达的皇冠明珠。

虽然具体工艺细节被严格保密,但其配备了下一代HBM4(高带宽内存)。这一事实,足以让整个行业颤抖。 HBM4不仅仅是速度的提升,更是容量的质变,直接解决了大模型训练中的「内存墙」问题。

(2) Vera CPU:这是英伟达基于Arm架构深度自研的怪兽。

它拥有88个自定义Arm核心和176个线程。 英伟达的意图或许是:通过超级芯片的设计,将Vera CPU与Rubin GPU在物理层面「焊死」在一起,逐步在高端AI服务器中剔除x86架构的CPU(也就是AMD和Intel的主阵地)。

(3) NVL144 机架:这是英伟达「数据中心即计算机」理念的终极形态。

单机架拥有144颗GPU,通过NVLink 6互联,带宽达到了惊人的260TB/s。 这是一台巨大的、单一的、吞噬电力的超级计算机。

英伟达传递的信息冷酷而明确:在未来的AI数据中心里,不需要插拔,不需要兼容,甚至不需要其他品牌的Logo。你买的不是芯片,而是英伟达定义的「算力单元」。

Agentic AI
从训练到Agent的战略转向

更令AMD感到压力的是英伟达在软件叙事上的升级。

黄仁勋在演讲中不再只谈论训练,而是大谈特谈Agentic AI。

当AI模型从单纯的聊天机器人进化为能自主规划、调用工具、解决复杂任务的智能体时,推理算力的需求将不再是线性的,而是指数级的。

一个Agent为了完成一个任务,可能需要在后台进行数千次的推理、反思和模拟。

英伟达声称,Rubin平台能将推理Token的成本降低10倍。

这种「降维打击」般的承诺,直击了OpenAI等客户的痛点——他们每天都在为天文数字般的电费和算力成本发愁。

英伟达试图告诉市场:只有我的软硬件一体化平台,才能承载这种能够「思考」的AI。

在这样的背景下,苏姿丰登场了。

她面对的是一个近乎完美的对手,一个不仅垄断了现在,还试图定义未来的帝国。

AMD的绝地反击
Helios与万倍增长的野心

灯光渐暗,大屏幕上亮起了AMD标志性的橙红色光芒。

PPT的第一页是一句充满了防御性却又极具进攻意味的标语:「Solving the World's Most Important Challenges」(解决世界上最重要的挑战)。

苏姿丰没有回避房间里的大象,而是直接切入正题:算力需求的爆炸。

Yotta Scale:摩尔定律的墓志铭与复活

AMD直接抛出了概念:Yotta Scale Compute(尧字节级计算)。

尧塔浮点运算(Yottaflop),代表每秒一亿亿亿次浮点运算(10²⁴ FLOPS)。

目前,最强的El Capitan还是百亿亿次浮点运算(1.742 Exaflops,即10¹⁸ FLOPS)

AMD的目标是未来5年,10万台El Capitan级超级计算机。

目前,世界最强超级计算机El Capitan,占地约697平方米,相当于两个网球场大小

根据AMD的内部数据,AI算力需求正在经历每年前所未有的暴涨。

PPT第8页赫然写着:「10,000x Increase in AI Compute」。

苏姿丰说:「不仅训练算力每年增长4倍,在过去两年里,推理Token的数量增加了100倍。」

这一数据直接回击了英伟达关于「推理成本」的叙事——AMD同样看到了Agentic AI的未来,但他们的解决方案完全不同。

AMD试图用更开放、更巨大的规模来解决问题。

Helios AI Rack:开放架构的图腾

发布会的高潮是一个名为「Helios」的AI机架的揭幕。

以希腊神话中的太阳神命名,Helios承载了AMD照亮黑暗、打破垄断的隐喻。

如果说英伟达的NVL72是一座封闭的黑色方尖碑,那么Helios就是AMD试图构建的「巴别塔」——一座由全人类(除了英伟达)共同建造的高塔。

为了更直观地理解这场对决,我们将Helios与英伟达的NVL平台进行了详细对比:

Helios机架不仅仅是硬件的堆叠,它是AMD战略的集大成者。

  1. Zen 6的首次确认与x86的坚守在PPT的参数列表中,赫然写着「4,600 'Zen 6' CPU Cores」。

    这是一个巨大的彩蛋,也是AMD对英伟达Vera CPU最有力的回击。

    当英伟达试图将世界推向Arm架构时,AMD坚守并升级了x86架构。

    对于那些在这个星球上拥有数以亿计基于x86代码资产的企业来说,不需要为了AI重写所有的底层代码。


  2. 31TB HBM4内存的暴力美学这是一个让现场发出惊呼的数字。

    对于大模型训练而言,显存容量往往比计算速度更早成为瓶颈。

    AMD继续沿用了「大显存」策略,试图用海量的HBM4来容纳更巨大的MoE模型,从而减少跨卡通信的频率。

    这是一种简单粗暴但极为有效的策略:如果你的互联速度不如NVLink,那就把内存做大,减少互联的需求。

MI455X:参数怪兽与模组化的胜利

作为Helios的心脏,AMD Instinct MI455X被正式推向舞台中央。

  • 10倍性能跃迁:相比于前代MI355X,MI455X实现了10倍的性能提升。

    这是一个激进的数字,通常代际升级在2-3倍,10倍的宣称意味着架构级的重构。

    这主要得益于新的CDNA架构和制程红利。

  • OAM模组化设计的坚持不同于英伟达越来越倾向于将CPU和GPU焊死在一块主板上,AMD依然强调即插即用的灵活性。

    这意味着客户可以保留原有的服务器机箱,只升级计算模组。

    这对于成本敏感的云服务商来说,是极具诱惑力的「反锁定」策略。

    他们不需要因为升级GPU而扔掉整个机柜的电源和散热系统。

未来路线图:MI500与千倍提升

AMD展示了直到2027年的路线图,这种透明度在瞬息万变的半导体行业极为罕见。

  • 2026年:MI400系列(即今天的MI455X)。

  • 2027年MI500系列。这将基于CDNA 6架构,采用2nm工艺,配备HBM4E内存。

    AMD承诺在4年内实现1000倍的AI性能提升。

这是在告诉资本市场和客户:「我们有长期的技术储备,不会在英伟达的快速迭代中掉队。我们是长跑选手,不是投机者。」

数据中心的血管
互联技术的隐秘战争

如果说GPU是跑车,那么互联技术就是高速公路。

英伟达之所以无敌,不仅仅是因为跑车快,更是因为他们修了私有的高速公路(NVLink),只允许自家的车跑,而且还要收昂贵的过路费。

本次发布会上,AMD最核心、也是最具破坏力的战略反击,就是联合全行业修建一条免费、通用的高速公路——UALink (Ultra Accelerator Link),以及升级原本的国道——Ultra Ethernet (超以太网)

拆解NVLink的霸权:为何它是英伟达真正的护城河?

在技术圈,NVLink被视为英伟达最深的护城河,甚至超过了CUDA。

它允许GPU之间像大脑神经元一样共享内存,延迟极低。

没有NVLink,几千张GPU堆在一起只是一堆沙子;

有了NVLink,它们才是一颗超级大脑。

英伟达的策略是:如果你想用最高效的集群,就必须买全套英伟达方案。

NVLink不兼容任何其他厂商的芯片,它是一个封闭的物理层协议。

UALink:技术突围

AMD在PPT中专门辟出一页介绍开放生态。

这背后是一个名为UALink Consortium的庞大联盟。

  • Scale Up(节点内扩展)的利剑UALink

    这是直接对标NVLink的技术。 

    它由AMD、英特尔、微软、Meta、谷歌、博通等巨头共同制定。

    UALink 1.0规范支持多达1024个加速器在一个POD内互联,这在规模上甚至超越了英伟达当前的NVSwitch能力。


  • 内存一致性UALink最关键的特性是支持显存池化。

    这意味着AMD的GPU可以访问同一集群内其他GPU的内存,就像访问自己的一样。

    这对于训练万亿参数模型至关重要,也是此前只有NVLink能做到的事情。

这是一个典型的「合纵连横」故事。

OpenAI、微软、Meta这些巨头最恐惧的不是技术瓶颈,而是供应商锁定。

如果未来的AI基础设施完全依赖英伟达的私有标准,这些科技巨头的议价权将归零。

因此,Helios机架不仅仅是AMD的产品,它是整个「反英伟达联盟」的意志体现。

以太网的逆袭:UEC vs InfiniBand

除了UALink,发布会中多次提到Ultra Ethernet (UEC)

这是另一场关乎生死的战争:节点间互联。

  • InfiniBand的统治英伟达在收购Mellanox后,垄断了高性能网络InfiniBand。 它延迟极低,无损传输,是AI训练的黄金标准。

  • 以太网的进化AMD没有选择自研私有网络,而是押注以太网的进化。 UEC旨在解决传统以太网在AI负载下的丢包和拥塞问题。

  • 成本的逻辑InfiniBand昂贵且封闭,而以太网廉价且通用。 根据研究,UEC方案的每GFLOP成本比InfiniBand低27%。

    如果UEC成功,意味着客户可以用便宜通用的以太网交换机(比如博通、思科的产品)来组建超级计算机,而不需要购买昂贵的英伟达Quantum InfiniBand交换机。

这正是Helios机架的杀手锏:更低的总拥有成本(TCO)

对于那些要购买数万张显卡的客户来说,这节省下来的钱可能高达数十亿美元。

端侧的野望
Ryzen AI Max与「Mac Studio杀手」

视线从云端的数据中心拉回,苏姿丰将展示重点转向了PC。

在AI时代,PC正在变成「私人AI助理」的物理载体。

Ryzen AI Max:打破内存墙的128GB豪赌

AMD发布了震撼级的产品——Ryzen AIMax系列

这款芯片看似只是笔记本处理器,但其参数却令人咋舌,尤其是那个恐怖的数字:128GB统一内存

为什么这很重要?

在过去,x86处理器的内存和显存是分离的,且容量有限。

想在笔记本上运行一个像Llama 3 70B这样的大模型几乎是不可能的,因为显存不够。

苹果的M系列芯片(M3 Max/Ultra)之所以受开发者欢迎,就是因为统一内存架构允许大模型直接在本地运行。

AMD Ryzen AI Max直接对标苹果,成为首款能运行2350亿(235B)参数模型的x86处理器。

这意味着,开发者可以在一台Windows笔记本上,流畅运行企业级的超大模型,而无需联网。

性能对比:羞辱英特尔,追赶苹果,挑战英伟达

现场的PPT充满了火药味,AMD几乎把市面上所有的竞争对手都拉出来打了一遍:

  • 对比Intel Core Ultra 9Ryzen AI 400系列在内容创作上快1.7倍,多任务处理快1.3倍。

    这象征着x86阵营内部话语权的转移。

  • 对比Apple M5这是一个大胆的比较。

    AMD声称Ryzen AI Max在AI Token生成速度上快1.4倍。

    对于那些苦于苹果生态封闭、又羡慕其统一内存架构的开发者来说,这是唯一的替代品。

  • 对比Nvidia DGX Spark最令人意外的是,AMD将笔记本芯片与英伟达的工作站级别产品对比。

    在每美元Token生成效率上,Ryzen AI Max是英伟达DGX Spark的1.7倍。

AMD描绘了一个诱人的未来:每一个开发者、每一个创作者,都能在自己的书桌上拥有一台「微型超算」。

不再需要昂贵的云端API,不再担心隐私泄露,你的Ryzen AI Max就是你的私有GPT。

这对于OpenAI等公司来说也是利好——如果端侧算力足够强,大量的推理任务可以从云端卸载到用户本地,从而节省天文数字般的云服务器成本。

Halo Platform:开发者的「军火库」

除了硬件,AMD还发布了Ryzen AI Halo处理器,专为AI开发者设计。

它是一个平台。

它预装了ROCm软件栈(AMD的CUDA替代品),优化了PyTorch、Hugging Face等框架,并且实现了Day-0支持主流模型(Llama, GPT-OSS, Flux等)。

AMD终于意识到,软硬结合才是王道。

他们试图用类似苹果的体验,将开发者从CUDA的引力场中拉出来,给他们一把「铲子」,让他们在AMD的土地上挖掘AI的金矿。

盟友的站台,不仅仅是商业互吹

在发布会的后半程,PPT上出现了一张密密麻麻的Logo墙。

但其中最耀眼的,莫过于OpenAI。

虽然奥特曼没有亲自出场站台,而是OpenAI总裁Greg Brockman代为出席,但OpenAI作为核心合作伙伴出现在第一位,本身就是最强烈的信号。

这是一场关于生存的博弈。

OpenAI的焦虑与AMD的机会

为什么OpenAI需要AMD?

答案很简单:恐惧。

OpenAI对算力的饥渴已经到了病态的程度。

Brockman直接摊牌,在OpenAI内部,「算力一直在被争抢」

对此,苏姿丰打趣道:「我每次见到你,你都会告诉我:你们还需要更多算力。」

随即,她抛出一个关键问题:「需求真的有这么大吗?」

Brockman的回答相当直接:

过去几年里,OpenAI的算力规模几乎每年都在翻倍甚至三倍增长,而且这种趋势不会放缓。

他甚至用ChatGPT,做了一页幻灯片,分析了OpenAI如何让推理更省算力,包括更高带宽、更强性能、更低的HBM内存占用。

据报道,GPT-6及后续模型的训练需要数万张甚至数十万张B200。

如果只依赖英伟达,OpenAI的命运就完全掌握在黄仁勋手中。

英伟达可以决定谁先拿到芯片,谁能拿到多少,甚至以什么价格拿到。

  • 议价权引入AMD作为「二供」,是OpenAI乃至微软逼迫英伟达降价、或者至少不随意涨价的唯一手段。

    哪怕AMD的芯片只能达到英伟达80%的性能,只要它存在,英伟达就不能肆无忌惮地垄断定价。

  • 供应链安全当台积电的CoWoS产能被英伟达订满时,AMD提供了一个备选项(尽管他们也争抢台积电产能,但AMD的Chiplet设计策略使其能利用不同的封装技术,增加了供应链的弹性)。

软件生态的破局:ROCm的进化与PyTorch的胜利

除了OpenAI,我们还看到了Hugging Face、PyTorch、Databricks等名字。

这是AMD对外界质疑最有力的回应。

多年来,关于AMD最大的诟病就是「硬件一流,软件三流」。

ROCm(Radeon Open Compute)一直被认为是CUDA的拙劣模仿者,Bug多、文档少。

但在这次发布会上,AMD展示了ROCm的广泛采用。

这一变化的幕后推手是PyTorch 2.0。

随着PyTorch等高层框架的普及,底层的CUDA依赖正在被剥离。

对于大多数开发者来说,只要PyTorch代码能跑,底下是A卡还是N卡已经越来越不重要了。

OpenAI的Triton语言更是加速了这一过程,它允许开发者编写的代码自动优化到不同的硬件后端。

这正是AMD「农村包围城市」战略的体现:既然无法在底层CUDA上击败你,那就把战场拉到上层的PyTorch和Triton上,在那里,大家是平等的。

算力战争,才刚刚开始

苏姿丰抛出了一个让全场愣住的判断:「五年内,全球将有50亿人每天都在使用AI 。

注意:是每天都在用!

这意味着算力需求将持续指数级增长。

2025年,全球AI用户已超过10亿!而且,这不是AI的终点:未来主动式和自动化AI还将指数级增长,引爆更多推理算力需求。

AMD的另一个关键判断是:AI正在从云端,走向个人电脑。

李飞飞直接描绘了未来的游戏体验。

她的公司World Labs旗下的产品Marble,只需要少量照片,就能让模型自动构建一个完整的3D世界

现场演示中,只要用手机随手拍几张照片,AI就能自动生成3D场景。

游戏、虚拟世界、创作门槛,会被彻底打穿。

这深远影响PC的使用体验。

更激进的,是主动式智能体。

明年开始,你的电脑,可能真的会「替你打工」:

除了PC,AMD 还在同步押注物理AI等场景。

哪里需要AI算力,AMD就会出现在哪里。

这一次,AMD是真正的All in AI。

当苏姿丰在台上展示LUMI超级计算机(由AMD驱动的前欧洲最快超算)在气候模拟上的贡献时,更是进一步输出了价值观。

反英伟达联盟的本质

本次CES发布会,实质上是「反英伟达联盟」的一次誓师大会。

  • 英伟达的路线类似于早期的IBM或现在的苹果。

    封闭、昂贵、体验极致、利润独吞。

    Vera Rubin平台将这种封闭推向了极致,从CPU到GPU再到网卡和交换机,全部自研,全部私有。

  • AMD的路线类似于安卓。

    开放、混乱但充满活力、性价比高、利润共享。 它联合了博通(网络)、英特尔(CPU互联)、微软(软件)等所有被英伟达边缘化的巨头。

  • 客户的选择短期内,为了追求极致性能(如训练GPT-6),巨头们依然会咬牙购买英伟达的Rubin。

    但在推理侧和中等规模训练中,Helios和MI455X提供了极具吸引力的替代方案。

发布会结束了,苏姿丰在一片掌声中退场,留下了身后大屏幕上那个巨大的「Together we advance_」的标语。

这一刻,AI算力的分岔路口

对于全球科技产业而言,2026年的这天意义非凡。

我们并不希望看到一个只有一个玩家的游戏。

当英伟达试图用Vera Rubin将整个AI产业封装进它的黑色机柜时,AMD用Helios在墙上凿出了一扇窗。

如果说英伟达是算力时代的「罗马帝国」,不仅修路(NVLink),还造车(GPU),甚至开始制定交通规则(Agentic AI),那么AMD就是那个试图维持贸易自由的「商业联邦」。

OpenAI需要这扇窗,微软需要这扇窗,在这个星球上每一个渴望低成本、普惠AI算力的开发者都需要这扇窗。

这场「AI算力战争」没有终点,Yotta Scale只是下一个开始。

正如沙漠中每一粒沙子都可能成为未来的芯片,算力的世界里,也绝不应该只有一种声音。

股票复盘网
当前版本:V3.0