摘要
行业观点:
风险提示
行业竞争加剧的风险;技术研发进度不及预期的风险;特定行业下游资本开支周期性波动的风险。
报告正文:
01 不要低估科技大厂对AI的认知
谷歌财报炸裂,AI需求极度旺盛,AI投入极其坚决。2026年2月5日,Alphabet(谷歌母公司)发布炸裂财报。4Q2025营收1138亿美元(同比 17%),净利润345亿美元(同比 30%),2025年全年营收达4030亿美元(同比 15%),搜索广告与云业务成主要增长来源。


02 模型加速迭代,AI手机驱动入口之战
02 模型加速迭代,AI手机驱动入口之战
模型加速迭代,Anthropic和OpenAI同时上线最新模型。2026年2月7日,字节Seedance2.0重磅更新,突破“可控性”瓶颈;2026年2月6日,Anthropic和OpenAI同时上线了新模型Claude Opus 4.6和GPT-5.3-Codex。
字节Seedance2.0重磅更新,突破“可控性”瓶颈,迈向工业级应用。字节跳动旗下多模态模型Seedance 2.0于今日(2月7日)完成重磅版本更新,标志着字节系在AI视频生成领域已从“追赶”迈向“领跑”。 Ø 角色与场景的一致性质变:有效解决了前代模型在长镜头下的“脸部崩坏”和“风格漂移”问题。在多镜头连续生成中,主体特征保持高度稳定,这是AI视频从“短视频素材”走向“叙事性长内容”的关键门槛。 Ø 复杂的物理动态模拟:在处理大幅度动作(如奔跑、打斗)及光影流转时,物理规律的遵循度显著提升,画面流畅度与真实感逼近实拍效果,大幅减少了“AI抽搐”现象。 Ø 语义理解与指令跟随:模型对复杂Prompt的解析能力增强,能够精准还原剧本中的情绪氛围与分镜构图,极大降低了创作者的“抽卡”试错成本。 Anthropic发布Claude Opus 4.6:搭载处于Beta阶段的1M上下文窗口。 Ø Anthropic发布了Claude Opus 4.6,长文本能力提升显著。Claude Opus 4.6亮点在于Beta阶段的1M上下文窗口,过去的模型在处理极长文本时,经常出现上下文腐化的问题,即模型性能随着文本长度增加而显著下降,导致它忘记或者混淆较早之前的信息。 Claude Opus 4.6在著名的大海捞针基准测试MRCR v2上,成绩达到了76%,远超前代Sonnet 4.5的18.5%,这证明它能够真正有效地利用超长下文,在海量文档中精准定位并提取被深埋的关键信息,从而胜任大型代码库分析、多篇论文综述、跨会话长程任务规划等场景。 Ø 在推理能力和编码能力上,Claude Opus 4.6在多项权威基准测试中确立了行业领先地位,特别是在需要自主规划和多步执行的智能体编码任务上。比如,在Terminal-Bench 2.0中它的测试成绩排名第一。 Ø 在应用层,Claude正在深度融入生产力工具链。Claude Code引入了智能体团体的研究预览功能,允许创建多个协同工作的AI智能体来并行处理任务,例如同时对代码库的不同模块进行审查。对于更广泛的办公场景,Claude in Excel和全新推出的Claude in PowerPoint研究预览版,将模型的推理能力和生成能力直接嵌入到电子表格和幻灯片制作中。 
OpenAI推出GPT-5.3-Codex:可能是目前最强大的智能体编码模型。 Ø GPT-5.3-Codex都创下了新的行业纪录,以77.3%的准确率大幅超越了前代模型在衡量终端编程技能的Terminal-Bench 2.0基准测试上的表现,并在更严格的、涵盖多语言的SWE-Bench Pro软件工程测评中达到了领先水平。 Ø GPT-5.3-Codex的能力边界已经从纯粹的编码拓展到整个知识工作领域。在衡量真实世界职业任务的GDPval评估中,其表现能力与OpenAI的通用旗舰模型GPT-5.2相当。在制作金融分析PPT、设计零售培训文档以及编写商业计划书中,GPT-5.3-Codex能够输出专业的可使用内容。 
我们认为模型的迭代还未到瓶颈,2026年模型将会加速迭代: Ø 靠Scaling law提升模型能力的路径依旧有效。DeepSeek V3.2后训练规模扩展到预训练规模10%,预计未来比例还会提高,而且DeepSeek团队在论文表示由于训练算力有限,DeepSeek-V3.2的世界知识广度还是落后于Gemini 3 pro这样的顶尖闭源模型,团队计划未来进一步扩大预训练规模。同时DeepSeek大量使用合成数据有效说明不用担心数据会遇到瓶颈。 Ø DeepSeek-V3.2提出的DSA机制展示出强大算法创新能力,不必担心大模型技术创新已经到达瓶颈。 Ø 大模型训练的硬件基础升级。英伟达的Hopper架构正在转向Blackwell架构,Blackwell相比前代在单卡算力、显存带宽、显存容量、以及集群互联都大幅提升,这对大模型训练的意义一方面是加速和降低成本,另一方面是可以使用更大的Batch Size(模型更新学习内容前一次性处理的训练样本数量),这对训练稳定性有帮助,更大的Batch Size能够更准确地估计整个数据集的梯度,从而使学习过程更加稳定,而较小的批次则会产生噪声过大且特征过于明显的信号,这可能导致模型的学习路径出现不稳定的跳跃。 AI手机作为超级载体,驱动大厂入口之争。手机本身是人们工作与生活信息流的集大成者,全能的AI手机助手出现将全面重构所有人的工作与生活。我们认为豆包手机助手是AI在C端从单一的语音助手进化为真正会行动的助理的重要里程碑,不仅能理解用户意图,还能跨应用自主执行复杂任务,体现了AI在真实场景中的巨大进展,也预示着手机交互方式和用户效率将被系统性重塑。 
基于图形用户界面(GUI)的触控是移动互联网时代的核心交互方式,但也存在操作流程复杂的问题以及App间信息孤岛的问题。如今大模型正推动移动端交互革命:用户从复杂的点击跳转中解放,只需下达自然语言指令,AI Agent即可跨越应用边界完成任务。针对如何打破应用壁垒,行业目前形成了两套演进逻辑:API Agent路线:通过标准化协议让开发者主动接入。如苹果通过App Intents框架让开发者可以将应用接入Apple Intelligence。GUI Agent路线:利用多模态模型模拟人类视觉和操作。这种方式无需开发者配合,凭借通用视觉能力直接操作各类App,如豆包手机助手。 
在效率、隐私、可靠性等方面API Agent更有优势,但是GUI Agent的最核心优势在于灵活通用,不需要应用厂商主动适配,是打通碎片化应用生态的利器。预计模型厂商、应用厂商和手机厂商为了抢夺流量入口,会在两种路线选择上进行激烈的博弈。 我们认为AI手机是其他AI终端爆发的前置条件,预计全球顶尖大厂将极致投入到这场新入口之战。。
03 CPO等结构创新加速,空天有望解决能源问题
1.1 CPO开启“硅光新纪元”,Lumentum业绩验证高景气 CPO作为封装新形态,可有效打破“功耗墙”和“密度墙”。1)CPO(Co-Packaged Optics,光电共封装)并非单一的产品,而是一种封装形态的革命。传统的光模块是“可插拔”的(Pluggable),像U盘一样插在交换机面板上,数据需要经过长距离的电信号传输才能到达交换芯片(ASIC),这导致了较高的功耗和信号损耗。CPO技术则是将光引擎(Optical Engine)与交换芯片封装在同一个基板上,尽可能缩短电信号的传输距离。2)在2026年的当下,AI集群正向着万卡、十万卡规模演进,互联速率正从800G向1.6T乃至3.2T跨越,CPO即可成为打破“功耗墙”和“密度墙”的新选择。

CPO产业链近期显著变化,结构创新迅速。 1)硅光(SiPh)渗透率加速:硅光技术是CPO的基石。相比传统EML方案,硅光在集成度、成本可控性上具备天然优势,正成为CPO落地的载体。 2)ELS(外置光源)标准趋于统一:CPO最大的痛点之一是激光器(光源)不耐热,如果封装在芯片旁边容易损坏且难以更换。近期,行业内关于ELS(External Laser Source)的模块化标准已逐步形成共识,即把“灯泡”(光源)独立出来做成可插拔,坏了可以换,而把“透镜和电路”(光引擎)封在芯片旁。这一方案的逐步成熟,有望大幅降低了CPO的维护成本, 3)薄膜铌酸锂(TFLN)的引入:为了进一步降低功耗并支持单波200G/400G的超高速率,行业开始在CPO中引入薄膜铌酸锂调制器,代表材料端的革新。 Lumentum业绩超预期兑现,量价齐升。全球光通信芯片及器件龙头Lumentum(LITE)于近日公布了2026财年第二季度(对应自然年2025Q4)业绩。报告期内,Lumentum实现营收6.66亿美元,同比增长65.5%,环比增长24.7% 
。 我们认为,Lumentum超预期,预示产业趋势的三个变化: 1)1.6T迭代速度超预期。Lumentum指出,云服务商(Cloud Titans)对高速率产品的需求并未放缓,反而加速向1.6T迁移。这意味着光通信行业的景气周期被拉长,并未出现此前市场担心的“周期见顶”。 2)CW激光器(连续波光源)需求井喷。随着CPO及硅光模块渗透率的提升,作为硅光方案“心脏”的大功率CW激光器需求激增。Lumentum作为该领域的领军厂商,其业绩超预期印证了硅光/CPO技术路线的放量。 3)北美云厂商Capex意愿依然坚挺。业绩的超预期反映了下游客户(如微软、谷歌、亚马逊等)在AI基础设施上的投入依然维持高位,并未受到短期宏观扰动的影响。 1.2 空天有望解决AI能源问题,打开每年100GW算力空间 算力能耗庞大,地面承载力有限。AI大模型的参数量与能耗呈非线性增长。根据国际能源署(IEA)发布的权威报告,2026年全球数据中心、加密货币和人工智能的电力消耗预计将达到1000太瓦时(TWh),相当于日本全年的用电量。在地面建设数据中心,不仅面临严苛的PUE(电源使用效率)限制,更受到土地与散热资源的物理约束。商业航天降本,获取通往“太空基建”的入场券。1)太空算力商业化的前提是极低的发射成本。2024-2025年,以SpaceX星舰(Starship)为代表的运载工具取得了里程碑式突破,将低轨发射成本压低至每公斤数千美元甚至更低。2)国内来看,2025年11月国家航天局设立商业航天司,持续推动商业航天高质量发展,确立了其国家级战略地位。这一政策红利在2025年集中释放,推动了从火箭制造到卫星互联网的产业链增长。同时,中国商业航天企业如深蓝航天、蓝箭航天在可回收火箭领域的突破,使得大规模部署太空设施成为经济账上算得平的生意。 
太空有望解决能源问题,成为AI算力的“第二增长极”。1)路径一:太空边缘计算。利用太空真空环境(零散热成本)和不间断的太阳能(24/7清洁能源),直接在轨道上部署数据中心。这不仅解决了地面的“热岛效应”,还能实现数据的全球实时分发。2)路径二:空间太阳能电站。通过在地球静止轨道部署巨大的太阳能阵列,收集能量并通过微波束传输回地球。相比地面光伏,太空光伏不受昼夜和天气影响,效率有望相较地面大幅提升。 马斯克详述太空算力路线图,预计每年新增100GW的AI计算能力。根据马斯克表述,SpaceX计划发射100万颗卫星组成轨道数据中心星座,直接利用太空近乎恒定的太阳能,且运行和维护成本极低。马斯克估算,每年发射100万吨卫星、每吨卫星产生100千瓦的计算能力,将每年新增100吉瓦的AI计算能力。马斯克预计,在两到三年内,在太空中生成AI算力将成为成本最低的方式。这一成本效率将使企业能够以前所未有的速度和规模训练AI模型和处理数据。 
04 AI吞噬软件”过于绝对,错杀带来中期配置良机
模型更新引起恐慌,全球SaaS板块普跌。本周,Anthropic发布了具备“自主计算机操作”能力的Claude新版本,展示了AI直接接管复杂软件界面的能力。这一进展引发了市场对SaaS“中间商”价值被吞噬的极度担忧。 
“吞噬论”过于绝对,软件应用公司的核心knowhow并未消失。我们认为,“AI吞噬一切软件”的论调过于线性外推。在思科系统公司于旧金山举办的一个人工智能会议上,黄仁勋表示,人工智能系统的设计初衷是与现有软件工具协同工作,而不是完全取代它们。他直言,担心“人工智能会让软件公司变得不那么重要”的想法是错误的,人工智能将继续依赖现有的软件,而不是从头开始重建基本工具。 黄仁勋强调,人工智能领域的最新突破实际上集中在如何更有效地利用现有工具。而软件工具的设计初衷就是为了支持复杂的操作,因此,它们会是先进人工智能生态系统的重要组成部分。 私有数据壁垒:例如ERP、CRM厂商掌握着企业最核心的经营数据,这是通用大模型无法触及的“黑盒”。除了经营数据,还包括医疗、工业制造、保险等多个细分领域。 工作流深度:复杂的业务逻辑(如复杂的税务计算、供应链调度)需要极高的精度,通用模型的“幻觉”在这些场景下是不可接受的,必须依赖成熟软件的规则约束。 中国特色服务,构筑起AI无法逾越的护城河。这一逻辑在中国市场尤为显著。与美国SaaS标准化的订阅模式不同,中国计算机公司绝大部分以项目制为主要商业模式。 1)解决方案的复杂性:国内政企客户的需求高度定制化,往往涉及多系统打通、私有化部署及复杂的信创适配。这不仅是写代码的问题,更是对客户业务理解深度的考验。 2)商务与服务壁垒:中国市场的商业成交高度依赖长期的客情关系与驻场服务。大模型无法代替售前团队去搞定复杂的招投标流程,也无法代替实施团队去现场解决突发的业务故障。我们认为,对于中国软件公司而言,Anthropic等基座模型的更新,本质上是生产力工具的升级。它能降低软件公司的开发成本,提升交付效率,而非直接取代其商业地位。当前市场的恐慌性抛售,可提供了低位布局优质行业软件龙头的机会。
05 存储、CPU、FAB加速成长通道
Agent的执行过程需要记忆以及上下文缓存,对存储带来了巨大需求。
5.1存储:AI驱动的超级周期,产能扩张与技术迭代将推动长期供需再平衡 Agentic AI框架依赖于Agent Core与大型语言模型之间的迭代式多轮交互。对于每个用户请求,代理核心通常会“解读用户意图—生成执行计划—通过工具检索外部信息—整合中间结果—重复该循环,直至最终输出与用户目标一致”。由于该循环涉及对同一任务的反复优化,模型常需多次处理相同提示词的不同变体。随着提示词在迭代过程中不断扩展,为每个循环重新计算整个预填充阶段的效率将日益降低。通过利用KV缓存,在解码过程中可复用先前计算的键值对,从而避免冗余计算,并在多步推理工作流中保持较低的延迟。在多Multi-Agent中,工作负载可能因负载均衡、弹性资源分配或故障恢复而在GPU之间迁移。当活动会话迁移至另一GPU时,本地存储的键值缓存将丢失,必须在新设备上通过预填充阶段重新生成,这会引入显著延迟。为避免此开销,键值缓存必须超越本地GPU内存实现持久化。如图3所示,将缓存卸载至外部系统资源(如CPU内存或基于NVMe的存储)可实现迁移后的快速重载与复用。对于跨节点迁移,缓存必须通过共享资源在多个计算节点间保持可访问性,确保分布式执行过程中的连续性。在这些动态环境中,KV缓存卸载不仅作为性能优化手段,更是维持稳定延迟、可预测吞吐量和可扩展推理操作的基础架构机制。 
当前全球存储芯片市场正处于由AI驱动的结构性供需失衡阶段。据CFM闪存市场预测,2025年全球存储市场规模有望达到1,932亿美元,创下历史最高纪录。①需求端:AI算力需求呈指数级增长,存储缺口具有结构性特征。据美光数据,AI服务器的DRAM容量需求是普通服务器的8倍,NAND容量需求达3倍,单台AI服务器存储需求高达2TB。同时,AI大模型"训练-推理-再训练"的正循环使数据存储需求持续放大。根据澜起科技招股书,2025年全球服务器DDR5模组渗透率将达85%,HBM单价较DDR5高约5倍,大规模应用进一步打开市场空间。②供给端:头部厂商产能扩张节奏显著滞后。三星、SK海力士与美光的主要新增产能要到2028年之后才会大规模释放,2026-2027年内供需紧平衡格局难以改变。经历2023年库存危机后,头部厂商转向"精准减产 高端倾斜"策略,DDR4等传统产能收缩与AI存储需求扩张形成结构性失衡。③长期展望:随着3D NAND层数突破200层、HBM4量产体系逐步建立(2025年全球HBM总产能已增至54万片,同比增长105%)、以及三星HBF等新架构研发推进,存储产业正朝着"DRAM缓存 HBF加速 NAND海量存储"的多层架构演进,技术突破将逐步缓解供需矛盾,推动行业进入新的增长轨道。 
5.2 Agent 生态扩张引爆 CPU 性能瓶颈 随着大模型的应用从简单的Chatbot向能完成复杂任务的Agent演进,计算负载的重心正在发生微妙的偏移。Agent不仅需要GPU进行模型推理,更依赖高性能CPU来处理复杂的逻辑编排、工具调用和内存管理。以下是我们认为Agent驱动 CPU 需求爆发的三大核心逻辑: ①Multi-Agent 架构引发的OS调度压力 传统的 LLM 对话是线性的,而 Agent 的工作流则是复杂的闭环。“推理→执行→评估→反思”的循环机制: Agent 需要在生成 Token 之外,执行大量的逻辑判断和状态管理。,模型需要不断在“思考”和“行动”之间切换。导致操作系统层面的上下文切换和进程调度任务大幅增加。 沙盒(Sandbox)需求飙升: Agent 执行代码等操作经常需要在隔离的云端沙盒中运行。这些沙盒环境的启动、运行和销毁依赖 CPU 算力。 ②长上下文场景下的 KV Cache 卸载对CPU的挑战 naddod的技术文章阐述了其原理,键值缓存 (KV Cache) 可以加速 Transformer 推理,但它也会带来一个副作用:消耗大量显存。随着大型语言模型上下文长度的不断增长,这个问题会变得越来越突出。例如当上下文长度达到 8 万个token时,仅 KV Cache 本身就可能消耗数十 GB 的显存。更重要的是,GPU 显存不仅要容纳 KV Cache,还要容纳模型权重和中间计算结果。一旦显存耗尽,推理就会崩溃甚至失败。为了解决这一冲突,业界提出了键值缓存卸载(KV Cache Offload)方案。其核心思想是将GPU内存中不活跃或暂时未使用的键值数据迁移到其他存储介质例如CPU内存或者SSD。然而CPU 与 GPU 之间的通信带宽远低于 GPU 内部的 HBM 带宽。而且在进行 KV Cache 传输和管理时,也需要 CPU 进行任务的调度,进一步加剧了 CPU 的负载。 NVIDIA 2025年9月的一篇技术博客《How to Reduce KV Cache Bottlenecks with NVIDIA Dynamo》就专门阐述了在长上下文场景下,利用 NVIDIA Dynamo 等技术将 KV Cache 卸载到 CPU内存的必要性,并指出这是解决 HBM 瓶颈的关键手段。 
③高并发工具调用带来的CPU算力消耗 Agent 的能力不仅在于对话,更在于使用工具,例如检索、写代码、浏览网页。这些非模型推理任务主要由 CPU 承担。前文五大代表性Agent工作负载中各项任务的延迟数据证明了这一点。而且在高并发场景下可能有大量Agent 同时工作,这些任务需要高性能 CPU 进行多线程/多进程处理。 据芯榜1月19日报道,英特尔将Intel 3和intel 7产能紧急转向服务器,致使消费电子端交付保证率大幅下滑。 英伟达 Blackwell 架构的 ARM CPU 存在严重瓶颈,因此新一代 Rubin 架构大幅提升 CPU 核心数与超线程;同时英伟达开放英特尔 x86 CPU 用于 NVL72 互联机柜。而Agent 云端沙盒调用量飙升带动云实例业务增长,进一步加剧了 CPU 供需紧张。 市场研究机构Jon Peddie Research 2025年8月公布的最新数据显示,全球客户端 CPU 市场已连续两个季度实现增长。2025 年第二季度,客户端 CPU 出货量环比增长 7.9%,同比增长 13%;同期服务器 CPU 出货量同比增长 22%,环比小幅上升 0.6%。

2026年1月22日,英特尔CFO表示预计第一季度可用供应将降至最低水平,随后在第二季度及以后有所改善,公司正应对整个行业的供应短缺。 我们认为,Agent 时代算力的“木桶效应”已经显现,业界从经历了从开始对GPU的堆叠,到存储的短缺,目前CPU 正演变为类似于存储的新短板。补足这一短板将是下一阶段算力基础设施建设的重中之重
5.3 FAB晶圆代工:全球产能大扩张 先进封装突破将释放行业增长潜力 晶圆代工作为半导体产业链的核心制造环节,其产能供给直接决定了存储、CPU及AI芯片的交付能力。据TrendForce数据,2025年Q2全球前十大晶圆代工厂营收达417亿美元,同比增长14.6%创历史新高。①先进制程大规模扩产:台积电2025年启动2nm量产(Fab 20试产),预计年底月产能达5万片)。台积电市占率已达约70%,2025年营收占全球晶圆代工的绝对主导。此外,中国大陆晶圆产能2025年预计增长14%至1,010万片wpm,几乎占全球总产能的三分之一。②先进封装瓶颈加速突破:CoWoS作为AI芯片制造的关键瓶颈,台积电正全力扩产。2025年CoWoS月产能翻倍至7.5万片,2022-2026年CAGR超过50%。台积电董事长魏哲家表示,CoWoS目前严重供不应求,公司将持续扩产,预计2025-2026年实现供需平衡。下一代封装技术(CoPoS、FOPLP)也在加速研发,有望进一步释放产能。③长期展望:全球半导体制造版图正在深度重构。先进制程方面,中国台湾占比从71%降至54%,美国从9%升至21%;成熟制程方面,中国大陆占比从31%飙升至47%。我们认为,随着各地区新建晶圆厂陆续投产,叠加先进封装技术的持续突破,制造端的产能瓶颈将逐步解除,为存储、CPU和AI芯片的供给提供系统性保障,驱动整个半导体行业进入新一轮蓬勃发展周期 
风险提示
行业竞争加剧的风险:
在信创等政策持续加码支持计算机行业发展的背景下,众多新兴玩家参与到市场竞争之中,若市场竞争进一步加剧,竞争优势偏弱的企业或面临出清,某些中低端品类的毛利率或受到一定程度影响。
技术研发进度不及预期的风险:
计算机行业技术开发需投入大量资源,如果相关厂商新品研发进程不及预期,表观层面将呈现出投入产出在较长时期的滞后特征。
特定行业下游资本开支周期性波动的风险:
部分计算机公司系顺周期行业,下游资本开支波动与行业周期性相关性较强,或在个别年份对于上游软件厂商的营收表现产生扰动。
模型加速迭代,Anthropic和OpenAI同时上线最新模型。2026年2月7日,字节Seedance2.0重磅更新,突破“可控性”瓶颈;2026年2月6日,Anthropic和OpenAI同时上线了新模型Claude Opus 4.6和GPT-5.3-Codex。




03 CPO等结构创新加速,空天有望解决能源问题
CPO作为封装新形态,可有效打破“功耗墙”和“密度墙”。1)CPO(Co-Packaged Optics,光电共封装)并非单一的产品,而是一种封装形态的革命。传统的光模块是“可插拔”的(Pluggable),像U盘一样插在交换机面板上,数据需要经过长距离的电信号传输才能到达交换芯片(ASIC),这导致了较高的功耗和信号损耗。CPO技术则是将光引擎(Optical Engine)与交换芯片封装在同一个基板上,尽可能缩短电信号的传输距离。2)在2026年的当下,AI集群正向着万卡、十万卡规模演进,互联速率正从800G向1.6T乃至3.2T跨越,CPO即可成为打破“功耗墙”和“密度墙”的新选择。




04 AI吞噬软件”过于绝对,错杀带来中期配置良机

05 存储、CPU、FAB加速成长通道
Agent的执行过程需要记忆以及上下文缓存,对存储带来了巨大需求。





风险提示
行业竞争加剧的风险:
在信创等政策持续加码支持计算机行业发展的背景下,众多新兴玩家参与到市场竞争之中,若市场竞争进一步加剧,竞争优势偏弱的企业或面临出清,某些中低端品类的毛利率或受到一定程度影响。
技术研发进度不及预期的风险:
计算机行业技术开发需投入大量资源,如果相关厂商新品研发进程不及预期,表观层面将呈现出投入产出在较长时期的滞后特征。
特定行业下游资本开支周期性波动的风险:
部分计算机公司系顺周期行业,下游资本开支波动与行业周期性相关性较强,或在个别年份对于上游软件厂商的营收表现产生扰动。


VIP复盘网