扫码体验VIP
网站公告:为了给家人们提供更好的用户体验和服务,股票复盘网V3.0正式上线,新版侧重股市情报和股票资讯,而旧版的复盘工具(连板梯队、热点解读、市场情绪、主线题材、复盘啦、龙虎榜、人气榜等功能)将全部移至VIP复盘网,VIP复盘网是目前市面上最专业的每日涨停复盘工具龙头复盘神器股票复盘工具复盘啦官网复盘盒子股票复盘软件复盘宝,持续上新功能,目前已经上新至V6.5.3版本,请家人们移步至VIP复盘网 / vip.fupanwang.com

扫码VIP小程序
返回 当前位置: 首页 热点财经 【国金计算机&科技】AI进入新临界点

股市情报:上述文章报告出品方/作者:国盛证券,刘高畅/顾晟等;仅供参考,投资者应独立决策并承担投资风险。

【国金计算机&科技】AI进入新临界点

时间:2026-02-01 17:39
上述文章报告出品方/作者:国盛证券,刘高畅/顾晟等;仅供参考,投资者应独立决策并承担投资风险。






摘要





行业观点:

n Agent生态持续扩张。1)大模型公司Anthropic大幅上调未来数年的营收预测,预计今年销售额将增长四倍,达180亿美元,而明年将达550亿美元。其AI编码助手Claude Code去年11月的年化收入已超过10亿美元。2)1月27日月之暗面发布并开源K2.5模型,最大亮点在于Agent 集群。K2.5能根据任务需求,现场调度多达100个分身,并行处理1500个步骤。3) AI助手Clawdbot近期爆火,不仅吸引大量开发者尝试,更引来腾讯云、阿里云等国内云厂商火速接入。Clawdbot能接管个人终端几乎所有任务。可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的聊天APP,通过WhatsApp、Telegram等平台发送指令。Clawdbot带来的“贾维斯”式的未来人机交互体验,为Agent形式打开了新的思路。
n Agent驱动的强化学习(RL)时代,CPU可能比GPU更早成为瓶颈。与传统单任务RL不同,现代Agent系统需要同时运行成百上千个独立环境实例,"环境并行化"让CPU成为事实上的第一块短板。主要源于三大核心逻辑:1)Multi-Agent 带来OS 调度压力, Agent 的“推理-执行-反思”循环机制需要操作系统层面频繁调度,且沙盒(Sandbox)的运行高度依赖 CPU 算力。2)为解决长上下文导致的 GPU 显存容量问题,业界采用 KV Cache Offload 技术将数据迁移至 CPU 内存,这不仅要求 CPU 具备大内存,还需其承担繁重的调度与传输任务。3) 高并发工具调用:检索、编码、网页浏览等非模型推理任务上由 CPU 执行,在高并发场景下,多线程/多进程的处理需求推高了 CPU 的负载
n DeepSeek Engram架构或进一步推动以存代算。DeepSeek推出Engram架构,把大模型里的“计算”和“超大规模记忆”解耦,Transformer的算子全部在GPU/加速卡上计算,而1000亿参数的Engram表存储运行则在CPU内存中。此外Anthropic推出的Claude Cowork,通过知识库为Claude设计的一种全新永久记忆方式。我们认为,类Engram架构能有效突破GPU显存限制,从而推动以存代算需求和CPU配比提升。Agent驱动存储需求持续增长。近期美国存储厂商陆续披露亮眼业绩。Agent的执行过程需要记忆以及上下文缓存,对存储带来了巨大需求。三星发布白皮书深入探讨了Agentic AI时代,利用SSD进行 KV Cache Offloading,可以解决GPU显存瓶颈、提高推理性能并降低成本。在Agent环境中,多轮对话需反复处理相似提示词。若KV缓存仅存于GPU本地,会话迁移时需重新预填充,引入高延迟。通过将KV缓存卸载至SSD等共享存储,可实现跨节点快速恢复。

相关标的:

海外算力/存储:中际旭创新易盛兆易创新、大普微、中微公司天孚通信源杰科技胜宏科技景旺电子英维克等;闪迪、铠侠、美光、SK海力士、中微公司北方华创拓荆科技长川科技
国内算力:寒武纪东阳光海光信息协创数据华丰科技星环科技网宿科技首都在线神州数码、百度集团、大位科技润建股份中芯国际、华虹半导体、中科曙光润泽科技浪潮信息东山精密亿田智能奥飞数据云赛智联瑞晟智能科华数据潍柴重机、金山云、欧陆通杰创智能
CPU:海光信息中科曙光澜起科技禾盛新材中国长城龙芯中科兴森科技深南电路宏和科技广合科技


风险提示


行业竞争加剧的风险;技术研发进度不及预期的风险;特定行业下游资本开支周期性波动的风险


报告正文:


01 Agent生态持续扩张


近期全球Agent生态进展不断,业界创新频出:

大模型公司Anthropic大幅上调未来数年的营收预测,财联社1月28日报道Anthropic预计今年销售额将增长四倍,达180亿美元,而明年将达550亿美元。该公司旨在缩小与老对手OpenAI之间的营收差距。这些营收预测远高于Anthropic去年夏天的预测,反映了Anthropic近期的成功,包括其AI编码助手Claude Code的增长。该产品去年11月的年化收入已超过10亿美元,约占当时总年化收入的14%,这帮助该公司在去年年底实现了超过90亿美元的年化收入。不过,由于训练和运行其AI模型的费用也在增长更快,超过了收入,因此,Anthropic将预期现金流正增长的时间推迟到了2028年,比此前预测晚了一年。
1月27日月之暗面发布并开源K2.5模型,最大亮点在于Agent 集群。面对复杂任务,K2.5 不再是一个包揽一切的“全能专家”,而是化身为一支即时组建的“专业团队”。它能根据任务需求,现场调度多达100个分身,并行处理1500个步骤。所有的角色分配与任务拆解,无需预设,全由K2.5现场决策。
例如给 Kimi Agent集群投喂 40 篇关于心理学和 AI 的论文。Kimi 先是通过多次调用工具,按顺序把这 40篇论文通读一遍,以此确保上下文里完整保留了所有必要信息。紧接着,它衍生出几个子agent,本质上是 Kimi 的「分身」,分别负责不同章节撰写。最后,主agent 负责把关验收,将所有内容汇总生成了一份长达几十页的专业PDF综述


AI助手Clawdbot爆火,展现Agent新形态。第一财经129日报道,近期一款名为Clawdbot  AI助手近期从海外火到国内,成为2026年开年最受瞩目的AI爆款。它不仅吸引大量开发者尝试,更引来腾讯云、阿里云等国内云厂商火速接入,提供一键部署服务。通俗来说,Clawdbot 如同一个线上版贾维斯,能接管个人终端几乎所有任务。作为一个免费开源项目,它迅速吸引了大量开发者与从业者参与测试并分享体验。Clawdbot可以帮用户清空收件箱、发送电子邮件、管理日历、办理航班值机等等,并且可以接入用户常用的任何聊天APP,所有的操作均可通过 WhatsAppTelegram等平台完成,用户只需通过对话,就能操控设备自动执行各类任务。Clawdbot甚至带火了苹果Mac mini,有不少人为了让Clawdbot 24 小时在线运行,专门去下单了一台,谷歌AI产品负责人Logan Kilpatrick就是其中之一。Clawdbot 的核心设计理念是本地运行,它能深度访问用户的电脑系统、文件、应用和聊天记录,因此,将它部署在独立的Mac mini 上,可以避免与主力工作电脑混用,最大程度保障隐私和系统安全。目前Clawdbot 更像是少数极客的尝鲜项目。然而它所带来的贾维斯式的未来人机交互体验,为行业打开一扇新的窗口。


02 三大逻辑揭示Agent对CPU的刚性需求


随着大模型的应用从简单的Chatbot向能完成复杂任务的Agent演进,计算负载的重心正在发生微妙的偏移。Agent不仅需要GPU进行模型推理,更依赖高性能CPU来处理复杂的逻辑编排、工具调用和内存管理。以下是我们认为Agent驱动 CPU 需求爆发的三大核心逻辑:

①Multi-Agent 架构引发的OS调度压力
传统的 LLM 对话是线性的,而 Agent 的工作流则是复杂的闭环。“推理→执行→评估→反思”的循环机制: Agent 需要在生成 Token 之外,执行大量的逻辑判断和状态管理。,模型需要不断在“思考”和“行动”之间切换。导致操作系统层面的上下文切换和进程调度任务大幅增加。
沙盒(Sandbox)需求飙升: Agent 执行代码等操作经常需要在隔离的云端沙盒中运行。这些沙盒环境的启动、运行和销毁依赖 CPU 算力。
②长上下文场景下的 KV Cache 卸载对CPU的挑战
naddod的技术文章阐述了其原理,键值缓存 (KV Cache) 可以加速 Transformer 推理,但它也会带来一个副作用:消耗大量显存。随着大型语言模型上下文长度的不断增长,这个问题会变得越来越突出。例如当上下文长度达到 8 万个token时,仅 KV Cache 本身就可能消耗数十 GB 的显存。更重要的是,GPU 显存不仅要容纳 KV Cache,还要容纳模型权重和中间计算结果。一旦显存耗尽,推理就会崩溃甚至失败。为了解决这一冲突,业界提出了键值缓存卸载(KV Cache Offload)方案。其核心思想是将GPU内存中不活跃或暂时未使用的键值数据迁移到其他存储介质例如CPU内存或者SSD。然而CPU 与 GPU 之间的通信带宽远低于 GPU 内部的 HBM 带宽。而且在进行 KV Cache 传输和管理时,也需要 CPU 进行任务的调度,进一步加剧了 CPU 的负载。
NVIDIA 2025年9月的一篇技术博客《How to Reduce KV Cache Bottlenecks with NVIDIA Dynamo》就专门阐述了在长上下文场景下,利用 NVIDIA Dynamo 等技术将 KV Cache 卸载到 CPU内存的必要性,并指出这是解决 HBM 瓶颈的关键手段。


Agent 的能力不仅在于对话,更在于使用工具,例如检索、写代码、浏览网页。这些非模型推理任务主要由 CPU 承担。前文五大代表性Agent工作负载中各项任务的延迟数据证明了这一点。而且在高并发场景下可能有大量Agent 同时工作,这些任务需要高性能 CPU 进行多线程/多进程处理。


据英特尔与佐治亚理工学院2025 年11月的论文《A CPU-CENTRIC PERSPECTIVE ON AGENTIC AI》对代表性Agent任务进行了延迟、吞吐量和能耗指标的分析,揭示CPU相对于GPU对这些指标的显著影响,结果表明很多情况下GPU是Agent性能的瓶颈:在五大代表性Agent工作负载(HaystackRAG、Toolformer、ChemCrow、LangChain、SWE-Agent)中,.CPU.端的工具处理占延迟的.43.8%~90.6%.(如.ENNS.检索、WolframAlphaAPl.调用、文献搜索).,而.LLM.推理仅占较小部分。如HaystackRAG在.Natural.Questions.基准测试中检索耗时.8.0.秒(占总延迟.90.6%),LLM.推理仅0.5秒。


GPT-OSS-20B模型的吞吐量测试中,随着 Batch Size 增加,不同 Agentic 工作负载的吞吐量增长逐渐放缓并趋于饱和 Langchain 为例,展示了当 Batch Size 达到 128 时,Langchain 基准测试中各组件的平均耗时(数据显示批次大小为 128 时存在严重的 CPU 上下文切换瓶颈)。

在处理 LangChain 工作负载时,AMD Threadripper CPU Nvidia B200 GPU的动态能耗。关键转折点:在低 Batch Size(如 1-4)时,GPU 能耗显著高于 CPU。但随着 Batch Size 增加到 128 时,CPU 的能耗(1807 Joules)已经非常接近 GPU2307 Joules


同时我们认为DeepSeek Engram架构或进一步推动以存代算。DeepSeek推出Engram架构,把大模型里的“计算”和“超大规模记忆”解耦,Transformer的算子全部在GPU/加速卡上计算,而1000亿参数的Engram表存储运行则在CPU内存中,仅产生可忽略的开销(小于 3%)。
此外,Anthropic也给Claude Cowork重磅升级,通过知识库为Claude设计的一种全新永久记忆方式。我们认为,类Engram架构能有效突破GPU显存限制,从而推动以存代算需求和CPU配比提升。


03 Agent驱动存储需求持续增长


Agent的执行过程需要记忆以及上下文缓存,对存储带来了巨大需求。

三星发布的白皮书《Scaling AI Inference with KV Cache Offloading》深入探讨了在大型语言模型(LLM)和“代理式 AI”(Agentic AI)时代,如何利用SSD进行 KV Cache Offloading,以解决GPU显存瓶颈、提高推理性能并降低成本。
LLM推理包含预填充(Prefill)和解码(Decode)两个阶段:
Prefill阶段:一次性处理完整提示词,生成初始键值对(KV Cache),存储在GPU显存中,此阶段以计算为主。
Decode阶段:基于KV Cache逐 token 生成输出,以内存访问为主。
KV缓存通过复用已计算的键值对,避免重复计算,显著提升推理效率
在Agent环境中,多轮对话需反复处理相似提示词。若KV缓存仅存于GPU本地,会话迁移时(如负载均衡)需重新预填充,引入高延迟。通过将KV缓存卸载至NVMe SSD等共享存储,可实现跨节点快速恢复。


近期美国存储厂商陆续披露亮眼业绩。
据科创板日报,在截至今年1月2日的财年第二财季期间,希捷营收同比增长22%至28.3亿美元,经调整每股净利润为3.11美元。分析师的事前一致预期分别为营收27.5亿美元,调整后EPS 2.83美元。更令市场鼓舞的是公司给出的指引。希捷表示,财年第三季度的调整后EPS预期在3.2至3.6美元,远高于分析师预期的2.99美元;同时销售额指引为28至30亿美元间,也完全高于分析师预期的27.9亿美元。希捷科技CEO在公司财报电话会议上表示,2026年的产能已经分配完毕,“我们预计将在未来几个月开始接受2027年上半年的订单。” 由于人工智能工作负载和数据中心建设的增加,存储需求激增。希捷CEO补充说智能体也将刺激存储需求:“Agentic AI依赖于对大量历史数据的持续访问,以实现有效的规划、推理和独立决策。其应用已呈现加速增长的趋势,一家领先的云服务提供商最近进行的一项调查显示,超过一半的受访客户正在积极使用人工智能代理。早期采用者已经获得了可衡量的回报,其收益涵盖了从降低成本到增加收入机会等各个方面。随着Agent部署在边缘端(那里往往蕴藏着大量未开发的数据),我们相信,这将为生成和存储的数据量持续且显著地增长奠定基础,从而支持推理、持续训练并维护模型的完整性。

当地时间1月29日闪迪公布2026财年第二财季业绩报告。第二财季公司营收为30.25亿美元,同比增长61%;GAAP口径下净利润为8.03亿美元,同比增长672%;GAAP口径下稀释后每股收益为5.15美元,同比增长615%;GAAP口径下毛利率为50.9%,相比去年同期提升18.6%,全面超越市场预期。”业绩指引方面,公司预计,2026财年第三财季营收将在44亿美元至48亿美元之间,GAAP毛利率预计在64.9%至66.9%之间。SanDisk首席执行官David Goeckeler表示,展望未来,2026年之后的客户需求远高于供应。在世界上一些最大和资本最雄厚的科技公司的推动下,预计数据中心将在2026年首次成为NAND的最大市场。公司称闪迪处于AI基础设施广泛扩张的中心,随着AI工作负载的扩展,企业级SSD需求在整个生态系统中加速增长,特别是推理推动了每次部署中NAND含量的显著增加



相关标的

海外算力/存储:中际旭创新易盛兆易创新、大普微、中微公司天孚通信源杰科技胜宏科技景旺电子英维克等;闪迪、铠侠、美光、SK海力士、中微公司北方华创拓荆科技长川科技
国内算力:寒武纪东阳光海光信息协创数据华丰科技星环科技网宿科技首都在线神州数码、百度集团、大位科技润建股份中芯国际、华虹半导体、中科曙光润泽科技浪潮信息东山精密亿田智能奥飞数据云赛智联瑞晟智能科华数据潍柴重机、金山云、欧陆通杰创智能
CPU:海光信息中科曙光澜起科技禾盛新材中国长城龙芯中科兴森科技深南电路宏和科技广合科技

风险提示

行业竞争加剧的风险:

    在信创等政策持续加码支持计算机行业发展的背景下,众多新兴玩家参与到市场竞争之中,若市场竞争进一步加剧,竞争优势偏弱的企业或面临出清,某些中低端品类的毛利率或受到一定程度影响。

技术研发进度不及预期的风险:

    计算机行业技术开发需投入大量资源,如果相关厂商新品研发进程不及预期,表观层面将呈现出投入产出在较长时期的滞后特征。

特定行业下游资本开支周期性波动的风险

    部分计算机公司系顺周期行业,下游资本开支波动与行业周期性相关性较强,或在个别年份对于上游软件厂商的营收表现产生扰动。

股票复盘网
当前版本:V3.0