过去三年,AI 服务器市场的逻辑很单一:谁拥有更多 GPU,谁就离通用人工智能 (AGI) 更近,但随着 AI 应用从聊天机器人,演进到能自动执行复杂流程的「代理 AI」(Agentic AI),数据中心的底层算力需求正发生结构性转变。
不同于依赖GPU进行大规模并行计算的早期模型,代理 AI 更像一个超级编排者。 它不仅要生成内容,还需通过检索增强生成 (RAG)、调用外部 API 如邮件、网页、协同办公软件来完成任务,涉及大量逻辑分支、任务同步与多线绪处理。
康乃尔大学研究显示,在代理AI工作流中,约44%的算力由CPU贡献,远高于传统AI工作流的3-4倍,显示CPU不再是辅助者,而是算力引擎中不可或缺的「大脑」。
这一转变直接推升了服务器需求,汇丰(HSBC)将2026年全球服务器出货量年增长预期,从4%大幅上调至20%,高于市场普遍预期的10%-15%,并认为潜在需求高达60%。
然而,供应链瓶颈正限制着需求释放。 目前CPU和DRAM内存供应缺口高达30%-40%,SSD、电源芯片等核心零组件也面临10%-30%的短缺。 这意味着未来两年全球服务器出货将是「挤牙膏式」的释放,成长周期有望延续至2028年。
美国《大而美法案》为此轮硬件狂潮提供了强劲动力。 该法案允许企业购买数据中心资产(含服务器)享受100%的加计折旧和实时研发费用扣除。
受此激励,HSBC预测,谷歌、微软、亚马逊、Meta和甲骨文等主要云服务供应商(CSP)2026年合计资本支出将达7430亿美元,年增81%。 资金流向也发生结构性偏移:CSP用于购买服务器的资本开支占比,预计将从2025年的35%跃升至2027年的59%。
市场风格正从单一的「GPU 逻辑」转向更平衡的「计算节点价值链」。 随着CPU在机架中的价值占比提升,服务器ODM厂商及关键零件供应商,将成为这场「算力再平衡」的核心受益者。
业内人士认为,算力军备竞赛已进入「深水区」。 过去是「谁有显卡谁就赢」,未来则是「谁能处理好算力分配,谁就掌握效率」。 代理 AI 正驱动CPU需求回暖,为服务器市场注入长期确定性,也为投资者勾勒出一条清晰的硬件升级路线。













