人工智能的爆炸式增长,正在让内存成为超大规模数据中心里最抢手的“战略资源”。根据半导体分析机构SemiAnalysis的最新报告,2023和2024年内存支出仅占这类数据中心总资本支出的约8%,但到2026年,这一比例预计将激增至约30%,2027年还会继续攀升。短短四年内,内存相关投入几乎翻了四倍——这直接源于DRAM(动态随机存取内存)价格的疯狂上涨,以及HBM(高带宽内存,这种专为AI加速器设计的垂直堆叠内存)供应的严重短缺。

为什么会出现这种剧变?AI训练和推理需要海量高速数据交换,HBM正是核心部件,它能提供远超普通内存的带宽,但生产难度极高:每生产1比特HBM,大约要消耗3-4倍的晶圆产能,导致传统DRAM和LPDDR5的供应被大幅挤压。SemiAnalysis预测,2026年DRAM价格将翻倍以上,2027年平均售价还会再涨两位数;LPDDR5合约价自2025年初已上涨超过三倍,本季度公开市场价可能突破每GB 10美元。而HBM的短缺局面至少要延续到2027年,这直接推高了今年新增约2500亿美元数据中心支出的很大一部分。
成本压力已经快速传导到终端产品。受内存涨价拖累,英伟达B200服务器价格到年底预计将上涨高达20%。这与行业整体趋势一致——多家厂商在近期财报会上都承认组件成本上涨“前所未有”,戴尔首席运营官杰夫·克拉克去年11月就用这个词描述了当前的局面。Counterpoint Research也独立预测,到2026年底,DDR5 64GB RDIMM模块价格可能达到2025年初的两倍,而基于英伟达LPDDR平台的AI服务器因内存用量巨大,涨价幅度最为明显。
有趣的是,供应链中出现了明显的“赢家通吃”现象。SemiAnalysis指出,英伟达凭借庞大的采购规模,从供应商那里拿到了“VVP”(极优)DRAM定价,远低于云巨头和市场平均水平。这不仅压低了自身服务器成本,还间接拉低了整体定价基准,让外界难以完全看清其他买家面临的真实短缺压力。相反,AMD的AI加速器SKU通常内存含量更高,采购量又远小于英伟达,因此无法享受同等优惠,在内存成本上涨中受到的冲击更大。

供应端的情况同样严峻。三星、SK海力士和美光等巨头正把产能大规模转向高利润的HBM和高阶企业级DRAM,导致传统DDR5和LPDDR5供应持续紧张。新工厂扩建也需要时间:美光在广岛投资96亿美元的HBM项目,以及SK海力士在韩国利川和清州的扩建,最早也要到2027或2028年才能实质性投产。这场“内存狂潮”被业内形容为四十年来最严重的供应失衡之一,甚至可能波及消费电子、PC和智能手机等领域。
SemiAnalysis总结道,虽然主要云运营商2026年的资本支出指引已部分计入内存价格上涨,但华尔街对2027年的重新定价效应仍未充分反映。短期内,AI基础设施建设成本将继续承压,但这也正倒逼整个产业链加速创新。
本质上反映了AI从“GPU热”转向“全栈供应链瓶颈”的必然阶段。内存不再是廉价配件,而是AI规模化部署的真正限制因素——这对英伟达是利好(规模优势进一步巩固领先),对AMD等追赶者则是挑战,对云厂商则是实打实的成本压力。长远看,它会刺激内存技术迭代(如HBM4/HBM4E更快落地)和替代方案探索(例如更高效的AI模型减少内存依赖,或新型内存架构)。同时,内存厂商三星、SK海力士、美光将迎来高利润时代,但也需面对产能扩张的巨额投资风险。总体而言,这是AI基础设施从“野蛮生长”走向“成熟平衡”的信号:短期阵痛不可避免,但它会让整个生态更健康、更可持续。



