【站稳AI存储C位?HBM紧缺恐成定局 “以存代算”技术“虎视眈眈”】AI时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的“内存墙”,而HBM凭借其超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择。全球科技巨头纷纷将HBM作为战略要地。
在日前的财报会上,美光特别强调,预计半导体芯片、特别是HBM的供不应求情况将会加剧。具体HBM产品中,美光表示,已与几乎所有客户就2026年绝大部分HBM3E产能达成定价协议;公司正在与客户就HBM4进行讨论,供应“非常紧张”。此外,华为也在近期宣布,自昇腾950PR开始,昇腾AI芯片将采用华为自研的HBM。存储需求陡增背后,AI推理飞速崛起。黄仁勋在最新采访中,再次强调,AI推理将迎来十亿倍增长。
广发证券指出,随着AI推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD及HDD在超长上下文和多模态推理场景中发挥关键作用。但值得留意的是,“HBM供不应求情况加剧”的另一面,是供应瓶颈下可能出现的“技术替代”——“以存代算”。天风证券认为,“以存代算”技术通过将AI推理过程中的矢量数据(如KV Cache)从昂贵的DRAM和HBM显存迁移至大容量、高性价比的SSD介质,实现存储层从内存向SSD的战略扩展,而非简单替代。分析师进一步指出,QLC+PCIe/NVMe+CXL有望构筑下一代AI SSD基座,推动SSD从单纯存储介质,升级为AI推理“长期记忆”载体