野村证券发布最新报告,直击存储芯片行业的脉搏:随着人工智能发展进入后半段,数据中心需求如潮水般涌来,内存芯片市场将迎来史无前例的超级周期。尤其是针对AI服务器的高性能要求,高带宽内存(HBM)和企业级固态硬盘(eSSD)需求将爆炸式增长。
三星、海力士、美光科技和西部数据等巨头,正站在风口浪尖。
这不是简单的周期复苏,而是AI革命驱动的结构性转变:从训练模型的算力饥渴,到推理阶段的海量数据存储,内存芯片不再是配角,而是AI生态的“血管”。全球数据中心投资2025年预计破2000亿美元,HBM产能紧绌,eSSD性价比优势凸显。
野村报告的警钟,敲醒了市场对存储芯片的低估。AI发展后半段,已从模型训练的“烧钱游戏”转向推理与应用的“规模化落地”。训练阶段,HBM的高带宽如“超级高速公路”,支撑GPT级大模型的参数计算;推理阶段,eSSD的低成本高容量则像“数据仓库”,存储预训练模型和键值缓存。
野村经济学家指出,AI服务器对内存的性能渴求远超传统服务器,HBM的3D堆叠技术让带宽达819GB/s,GDDR6仅96GB/s,DDR4更低1/10。这让HBM从“小众”变“刚需”,eSSD的QLC技术则以高密度低价,满足AI的随机I/O需求。报告强调,数据中心Capex疯增,全球云巨头如微软和亚马逊投资超1000亿美元,内存需求随之暴涨。这像一场“内存饥荒”:AI训练需TB级数据,推理需实时访问,传统DRAM和NAND跟不上节奏。
超级周期的逻辑清晰:供应收缩+需求共振,价格上涨将延续至2026年。韩国三星和海力士的HBM订单激增,美光和西部数据的eSSD产能扩张,正从“寒冬”转向“暖春”。存储芯片的超级周期,不是天上掉馅饼,而是AI生态演变的必然。早期AI热潮,焦点在GPU,如英伟达的H100,算力如火箭。但后半段,瓶颈转向内存:训练大模型需海量数据吞吐,HBM的硅通孔技术垂直堆叠DRAM,体积小功耗低,完美匹配AI服务器。
推理阶段,eSSD的QLC NAND密度高,容量大性价比优,存储预训练模型和缓存数据,远胜传统HDD。野村分析,AI服务器出货量2025年增30%,HBM需求涨60%,eSSD增40%。三星和海力士的HBM3E已成英伟达标配,美光和西部数据的eSSD则服务亚马逊数据中心。
这像“内存升级链”:HBM提速训练,eSSD稳固推理,整体生态闭环。行业格局的深度变化,映照出全球博弈的影子。韩国三星和海力士主导HBM,市占超60%,HBM3E产能2025年增一倍,美光紧追其后,2025年HBM收入占总营收20%。
eSSD端,西部数据和美光的QLC技术领先,2026年NL SSD推出,替代HDD,容量翻倍成本降30%。中国企业如长江存储和长鑫存储,2025年自产eSSD占国内市场20%,但高端HBM依赖进口,供应链风险高。
全球内存市场2025年规模超1500亿美元,AI贡献30%。韩国厂商的“超级循环”策略,产能从HBM倾斜,传统DRAM价格随之涨10%。但这也生隐忧:供应集中让市场易受地震或罢工影响,2024年韩国工厂中断率升5%。
训练阶段,HBM的819GB/s带宽支撑万亿参数模型,OpenAI和谷歌的GPT和Gemini训练需TB级内存。推理阶段,eSSD的随机I/O优势突出,存储键值缓存,微软Azure数据中心eSSD需求增40%。
野村指出,AI服务器从通用转向专用,内存占比从20%升至35%。数据中心Capex 2025年破2000亿,亚马逊和微软投资超1000亿,推高HBM和eSSD订单。传统服务器内存如DDR5需求稳,但AI专用占比增20%。
韩国三星和海力士的HBM3E,已成AI服务器标配,2025年产能增一倍。美国美光和西部数据的eSSD,服务云巨头,2026年NL SSD推出,替代HDD,容量翻倍。
内存技术像“AI的神经元”,HBM提速思考,eSSD稳固记忆,2030年或让超级周期延续,但生态封闭或生瓶颈,开放标准如OpenHBM或降成本15%。内存芯片的超级周期,像AI的“隐形推手”,2030年或重塑万亿市场。