随着 AI 投资热潮席卷全球科技业,一个关键问题正引发业界关注:在资本、技术、资源不断涌入的背景下,真正限制 AI 算力扩张的环节究竟是什么? 半导体分析机构SemiAnalysis创办人Dylan Patel在一场播客访谈中给出答案。
Patel 指出,限制因素一直在变动,而当前,它正重新回到芯片制造,特别是极紫外光刻机 (EUV) 产能上。
Patel表示,过去数年,AI算力扩张的瓶颈像「打地鼠」般不断转移。 数年前,关键掣肘是台积电的CoWoS先进封装技术,之后电力供给成为新障碍,后来又是数据中心建设速度跟不上需求,但随着这些环节逐步扩产,新的限制点又浮现,这反映了AI需求成长远快于整个产业链的反应能力。
如今,在数据中心、电力等基础设施逐渐完善之际,算力扩张的重心重新落回半导体制造。
Patel强调,算力的长期供应核心不是电力或建筑,而是芯片制造能力,包括逻辑芯片产能、HBM芯片及晶圆厂与设备建设周期,其中无尘室建设是今、明两年最突出的瓶颈,而到2028、2029年,设备层将成为最大限制。
他进一步指出,若 AI 算力持续高速成长,未来限制可能来自最底层的设备供应链,尤其是 EUV 光刻机。 这类由荷兰ASML独家生产的设备,是制造先进制程芯片不可或缺的核心工具。
根据Patel估算,目前全球EUV年产量约70台,2027年可望增至80台,到2030年最多也只能达到100台。 这种产能极限,将直接决定全球AI算力的扩张上限。
为说明EUV对整体产业的影响,Patel估算后指出,若以英伟达新一代Rubin芯片建设一座1GW算力的数据中心,必须耗用约5.5万片3纳米晶圆、6000片5纳米晶圆及17万片DRAM,共需进行约200万次曝光机,而这样一套系统,总资本支出高达500亿美元,其中仅12亿美元用于购买3.5台EUV设备,形成惊人的杠杆效应。
EUV 设备因技术极端复杂,关键零件如蔡司镜头组和 Cymer 光源的供应链高度集中,扩产困难。 因此,从实体层面来看,全球每年可新增的 AI 算力总量已被牢牢锁死。
除逻辑芯片外,内存芯片也将成未来一两年关键瓶颈。 Patel预测,2026年,科技巨头约30%资本支出将投向内存芯片。 原因在于长上下文推理模型对 KV Cache(键值快取) 的庞大需求,大幅提升了对内存带宽与容量的依赖。 以 HBM 为例,其占用晶圆面积为普通 DDR 的四倍,意味着每生产一单位组 AI 内存,就要牺牲四单位组消费电子内存产能。 这将直接导致智能手机与PC的成本上升。
根据Patel估算,iPhone的储存成本可能增加150美元。 高端品牌也许能转嫁压力,但中低端智能手机将面临沉重打击。 他警告,存储价格上涨恐引发消费电子出货暴跌,从年均14亿支降至今年8亿支,明年甚至可能只剩5至6亿支。
在电力问题上,Patel则持务实态度。 他认为电力并非终极瓶颈,反而是投资机会。 透过航改燃气涡轮机、中速发动机、燃料电池与「太阳能+储能」组合,可在不依赖主要电网的情况下为数据中心供电。 即便电价翻倍,对单颗H100芯片每小时1.4美元的总成本影响甚微,远低于AI模型带来的效益。
Patel还说,若配置足够储能,美国电网还可为数据中心释放20%的额外容量。
至于马斯克提出在太空中建造资料中心的设想,Patel则明确反对。 考虑到芯片在太空中约15%的故障率,以及高昂的激光通信成本,该计划短期内缺乏经济可行性。 他断言,至少在2030年代之内,太空数据中心不会实现。
整体来看,AI算力的扩张正从表层设施转移到深层设备,EUV光刻机、内存芯片等基础环节,正成为决定未来AI发展速度的关键隘口。













