发布时间:2026-04-15 已有: 位 网友关注
随着AI智能体和强化学习工作负载的爆发式增长,CPU在数据中心的战略地位正经历结构性重估。知名半导体分析机构SemiAnalysis首席分析师Dylan Patel在4月8日的一次深度访谈中直言,AI工作负载的范式正从简单的文本生成向复杂的智能体和强化学习演进,CPU正面临极其严重的产能短缺。
市场研究机构TrendForce的最新报告印证了这一判断:当前AI数据中心的CPU与GPU配比约为1:4至1:8,而在智能体AI时代,这一比例预计将大幅收窄至1:1至1:2。
这一结构性转变已在供需两端引发连锁反应。Intel和AMD已于2026年第一季度末对部分CPU产品线提价。与此同时,英伟达和Arm双双于2026年3月宣布进军服务器CPU市场——一家GPU巨头与一家IP授权商在同一个月做出相同选择,绝非巧合,而是市场信号的集中释放。
智能体崛起,CPU从配角变瓶颈
在AI发展的早期阶段,CPU的角色相当边缘。Dylan Patel将其描述为:负载很轻。你发一个字符串,它回一个字符串,简单的推理,对CPU需求不大。彼时,GPU凭借其大规模并行矩阵运算能力主导了AI算力需求,CPU仅承担向GPU压缩和路由内存数据的辅助职能。
然而,以OpenAI o1为代表的新一代推理模型,以及随之兴起的AI智能体架构,从根本上改变了这一格局。与静态大语言模型不同,智能体AI需要动态与环境交互——规划任务、调用工具、在子智能体之间传递数据、评估任务是否完成。这一编排层的全部协调工作,恰恰落在CPU肩上,使其成为典型的CPU密集型负载。
2025年11月发布的学术论文进一步量化了这一压力:在智能体AI场景中,CPU工具处理产生的延迟,可占总延迟的高达90.6%;在大批量处理场景下,CPU动态能耗可达系统总动态能耗的44%。
Arm的测算则从容量角度揭示了需求缺口的量级:传统AI数据中心每吉瓦约需3000万颗CPU核心,而在智能体AI时代,这一需求将激增至1.2亿颗——增幅达四倍。
CPU需求的结构性上升,首先在传统x86市场引发了格局重塑。
Intel的Xeon处理器曾长期占据数据中心CPU市场逾95%的份额。这一统治地位自2021年起开始松动——Intel 7制程的良率问题导致Xeon Sapphire Rapids发布延迟近两年,为AMD的EPYC Milan打开了市场缺口。
相比之下,AMD的节奏更为稳健。其2026年旗舰产品EPYC Venice将采用台积电N2制程、Zen 6架构,并搭载CoWoS-L与SoIC先进封装,通过同步多线线程——线程数为当前市场最高。TrendForce预计,AMD将在2026年持续从Intel手中蚕食市场份额。
英伟达、Arm强势入局,竞争格局重写
传统x86双雄之外,一批非传统玩家正以前所未有的速度涌入服务器CPU赛道,从根本上改写竞争格局。
IC后端设计服务商迎来增量机遇
非传统玩家的大规模入场,正在为IC后端设计服务商创造可观的增量业务。
TrendForce指出,AWS目前仍坚持自主完成CPU后端设计,而谷歌和微软均已将CPU后端设计服务外包给创意电子。随着更多CSP和新兴CPU厂商加入市场,这一外包需求有望持续扩大。
TrendForce预计,2026年至2028年间,Broadcom、Marvell、GUC、Alchip、联发科等ASIC设计服务商将陆续承接来自上述客户的新增项目。对于寻找AI基础设施投资新切口的市场参与者而言,这一环节或许正是GPU热潮之外,尚未被充分定价的结构性机遇。