Site logo

AI智能体狂潮引爆CPU超级周期 两大x86芯片巨头携手高通(QCOM.US)奔赴狂野牛市

时间2026-05-12 11:59:49

英特尔

台积电

下载霸财智赢APP,买卖点即市预警,炒家心水交流 >>

智通财经APP获悉,随着Anthropic重磅推出的Claude Cowork,以及OpenClaw这类可自主执行任务的超级AI代理工具在2026年集中爆发,AI智能体浪潮可谓迅速席卷全球,AI算力架构瓶颈正在从以矩阵乘加吞吐为核心的GPU,彻底转向以控制流、任务编排、内存/IO协调为核心的数据中心CPU,面向超大规模AI数据中心的高性能CPU陷入严峻供不应求态势。

AI智能体风靡全球之际,AI算力投资主线正在从“围绕GPU的单点算力竞赛”转向“AI智能体驱动的全栈算力系统”,下一轮超额阿尔法收益将不再只属于AI GPU/AI ASIC领域最强龙头名单,而会系统性扩散到CPU、存储、PCB、液冷系统、ABF载板与广泛晶圆代工等全栈AI算力基础设施层,而在这种AI主线叙事转变中,CPU、光互连与存储芯片可能是最大赢家势力。

正是在CPU需求大爆发背景之下,两大x86架构CPU超级巨头——英特尔(INTC.US)与AMD(AMD.US)股价近期携手狂飙且不断创下历史新高点位。与此同时,重返数据中心CPU市场的高通(QCOM.US)近10个交易日股价疯涨60%,凸显出投资者们对于AI算力“关键瓶颈”持续升温看涨情绪。知名投资研究机构GF Securities近日发布研究报告称,“数据中心服务器CPU正在上演超级周期”,AMD(AMD.US)、英特尔(INTC.US)以及高通(QCOM.US)可能成为主要受益者。

1778558585(1).png

中东战火压不住“AI牛市”叙事! GPU不再一枝独秀 智能体大趋势引爆CPU

在中东战火背景之下,经历最新一轮的全球股票市场从阶段性低点到创新高的投资者们最深刻心得无疑在于——不要把每一条地缘政治头条都当成趋势本身,过去数周的市场已经将“特朗普临阵退缩”、“AI算力基础设施链条驱动的科技板块业绩大幅上修趋势”以及“美伊与以色列最终会回到谈判桌”这些核心逻辑位列地缘政治等级之上。

过去两年AI叙事几乎被GPU垄断,CPU一度像是AI军备竞赛里的“配角”;但随着开源的OpenClaw这类型代理式AI工作流(即AI智能体)主导的推理工作负载、数据编排、任务调度、内存访问、网络通信和多工具调用全面增长,市场可谓彻底意识到:没有强大的CPU作为系统中枢,GPU集群无法高效运转。这本质上就是CPU从“被低估的基础设施”重新回到芯片舞台最中央,带有非常明显的“文艺复兴”式复古浪潮意味。

在智能体链路中,大量工作负载不仅耗费在GPU上的token生成,还消耗在Python解释执行、网页抓取、数据库检索、RAG索引访问、词法处理、任务队列调度、RPC/IPC通信、KV状态更新等CPU主导环节,这意味着决定用户体验的,越来越不是单颗GPU的峰值算力,而是CPU是否有足够的核心数、线程并发、缓存层级、内存带宽、PCIe/CXL/互连调度能力去支撑高频工具调用与高密度任务切换。一旦CPU核心、内存子系统或I/O调度不足,GPU即便名义算力充裕,也会因数据准备、任务协调和系统等待而出现利用率塌陷。

因此,毋庸置疑的是,AI算力架构的瓶颈正在从以矩阵乘加吞吐为核心的GPU,彻底转向以控制流、任务编排、内存/IO协调为核心的数据中心CPU,这一变化的根源在于工作负载范式已经发生了本质迁移。CPU不再只是通用计算芯片,而是智能体时代的控制平面处理器、系统编排引擎与资源调度中枢,“被低估的CPU成为AI新瓶颈”并非情绪化判断,而是AI工作负载从“推理计算问题”进一步升级为“复杂系统工程问题”后的必然结果。

早期大模型推理以“单次请求—单次生成”为主,CPU更多承担数据搬运、请求路由与基础调度,属于典型的辅助控制面;但进入AI智能体与强化学习时代后,系统负载不再是单一前向推理,而是演变为包含任务规划、工具调用、子代理协同、环境交互、状态管理与结果验证在内的复杂闭环。上述“编排层”(orchestration layer)本质上是强控制流、强分支判断、强系统调用、强内存访问的CPU密集型任务,无法被GPU高效替代,因此CPU正从过去的“配角”变成决定系统吞吐、时延与资源利用率的新瓶颈。

摩根士丹利最新预测数据显示,智能体大爆发标志着从计算到编排的结构性转变,由此推导出到2030年新增325亿美元至600亿美元的CPU增量市场空间,并将服务器级别CPU总TAM大幅扩至825亿至1100亿美元量级。TrendForce的一项预测报告则显示,在AI智能体时代,CPU:GPU配比可能会从传统AI数据中心的1:4至1:8,向1:1至1:2大幅重估。

AI推理大浪潮推动服务器CPU需求爆发,五年期CAGR有望高达38%

GF Securities的分析师们在给客户的报告中写道:“作为AI基础设施建设的核心协调器,服务器CPU在过去几个月获得了显著关注。这一趋势受代理式AI/推理浪潮需求推动,由OpenClaw和Anthropic突破性成果驱动,后者年度经常性收入(ARR)在四月份飙升至440亿美元。例如,在最新的业绩电话会议中,AMD预计到2030年服务器CPU总可寻址市场(TAM)年复合增长率将超过35%,英特尔则表示向代理式AI的转变正在推动CPU的史无前例结构性需求,其中数据中心的CPU实际需求比例已经从训练阶段的GPU与CPU比率8:1收紧至人工智能推理阶段的4:1。

“根据我们的估算,假设推理占AI工作负载的90%,并假设到2030年AI服务器的GPU与CPU比率达到2:1,我们预计服务器CPU总可寻址市场在2026/2027年将分别增长54%/39%,并可能将在2030年CPU市场价值达到1350亿美元,而2025年仅仅约为260亿美元,五年期限的复合年增长率(CAGR)有望高达38%。此外,我们预计2026/2027/2028年的新增服务器CPU需求分别为670万、760万和630万单位台,同期总需求将达到3000万、3800万和4400万台,意味着三年复合年增长率(CAGR)约为23%。”GF Securities的分析师们写道。

在接下来的深入分析报告中,GF Securities指出,由于x86架构的CPU仍是数据中心服务器领域的最主流指令集架构,AMD和英特尔无疑将成为CPU超级周期的最主要受益者。

分析师们解释道:“从基本面角度来看,英特尔受益于持续的产能加速转化及第二季度CPU价格大幅上涨,这在我们4月16日的报告中已有说明。对于AMD,凭借稳健的产品更新迭代路线图和相对充足的产能,我们预计其市场份额将继续提升。目前我们预计,英特尔旗下的DCAI业务和AMD的数据中心服务器CPU业务营收在2026年将分别增长39%和73%。”

英特尔还可能在下一代AI服务器CPU中获得更大规模市场份额,其Xeon 6中央处理器可能将与英伟达即将量产的Rubin NVL8算力集群中的自研ARM架构CPU配合使用,即其中一部分Vera Rubin搭载x86架构CPU,另一部搭载英伟达自研基于ARM架构的Vera CPU;AMD的Venice CPU则可能部署在其下一代的Helios机架系统和8-GPU AI服务器算力集群中。

尽管x86仍为主流架构,但该公司认为基于ARM架构的服务器CPU也可能呈现出加速增长,通过英伟达自研的ARM架构服务器CPU——Vera系列算力集群及搭载专用应用集成电路(即搭载AI ASIC),其中包括亚马逊(AMZN.US)自研的Graviton 5、谷歌(GOOGL.US)自研的Axion 2——都是基于ARM架构打造的自研服务器CPU

分析师们补充道:“英伟达已为数据中心客户推出独立Vera CPU机架(256个CPU),早期采用者包括阿里巴巴、CoreWeave、Meta和Oracle(甲骨文)。在谷歌生态系统内,TPU算力体系的GPU与CPU比率正在从之前的4:1调整至4:2。结合2026年以后的更加强劲TPU算力需求前景,我们预计Axion 2出货将进一步加速。同时,亚马逊AWS自研的Graviton 4/5也在通过Teton Max机架(18个CPU)及Meta的独立Graviton机架获得推动。对于Arm公司本身而言,该公司则将AGI CPU需求上调至200亿美元。”

GF Securities的分析师们还认为,最近宣布重新进入数据中心CPU市场的高通正在“积极开发”2028年的数据中心CPU产品线,并预计将在6月24日的投资者日获得更多信息。

分析师们补充道:“在基准乐观情景下,假设高通在2028年获得30%的ARM架构CPU市场份额(意味着约400万台单位,平均售价3000美元,净利润率大约30%),其带来的净利润将为36亿美元,相当于其全年非GAAP利润大幅提升约30%。”

据了解,高通在数据中心CPU以及AI芯片领域的最新技术动态显示,它已经从传统的智能手机芯片设计商向数据中心AI基础设施供应商战略性扩张。高通已经宣布重新进入数据中心CPU市场,这与其过去仅聚焦移动SoC领域的定位明显不同,该公司确认正在开发定制数据中心CPU,并计划这些CPU能够与英伟达AI GPU加速器架构(如NVLink Fusion互连)协同工作,从而适应未来AI服务器的要求。值得注意的是,在2010年代中期就曾推出过基于ARM架构的Centriq 2400服务器处理器,具备高核心数且面向云计算及高吞吐量工作负载,这表明其在数据中心CPU设计上拥有一定经验。

在数据中心级AI加速器方面,高通已经推出了面向大规模AI推理的产品线——AI200和AI250加速器,这两款高性能AI芯片专为数据中心AI推理工作负载设计,并计划在2026年和2027年陆续商业化,这标志着高通正试图建立与CPU协同的AI芯片产品线,以便在AI推理及agentic AI(即AI智能体)等新兴工作负载中发挥作用。它们基于高通独家的Hexagon NPU架构,优化了内存容量和能源效率,并可配置为数据中心机柜级(rack‑scale)解决方案,这意味着高通正在追赶英伟达和AMD在大型AI算力基础设施领域的部署能力,同时力争打造出低TCO(总拥有成本)的AI推理平台。

免责声明:本资讯不构成建议或操作邀约,市场有风险,投资需谨慎!