继GPU之后,CPU也在推动DRAM大容量化,成为'AI协调者’的CPU......大容量记忆力必不可少,CPU所需的DDR5'供需失衡'加剧,在内存行业得益于价格暴涨100%以上的”通用DRAM"并创下前所未有的业绩之际,随着用于人工智能(AI)的中央处理器(CPU)普及相结合,有观点认为”短缺(Shortage·供应不足)"现象还将持续一年。
英特尔最近推出的“AI CPU"预计将搭载比以往多达4倍的通用DRAM,再加上对大容量DRAM有需求的图形处理器(GPU)需求叠加,外界认为三星电子和SK海力士的内存供应能力将跟不上需求。
据2日美股投资网消息称,业界了解到,CPU制造商正推动在AI CPU上搭载300~400GB容量的DRAM。这一规模相比一般CPU产品(96~256GB)最多大了4倍,堪称压倒性。AI CPU对大容量DRAM的需求激增,与AI产业向"推理"为中心的重构趋势相契合。过去AI推理只限于简单的问答,而现在则承担起统筹各种“智能代理AI”的“编排(协调)"角色。
在这一过程中,关键在于"上下文记忆"。若CPU要参照各个智能代理AI的生成内容来协调整体工作流程,就必须将内容记住。为此,作为记忆空间的内存必须实现大容量化。
到目前为止,AI数据中心一直在构建配备高带宽内存(HBM)的以GPU为中心的计算基础设施。充分发挥GPU在同时对海量数据进行学习的特性,只专注于"AI训练”。因此,服务器配置也通常是8台GPU配1台CPU。然而,随着行业重心向推理转移,扩大CPU比重的服务器配置正在普及。
英特尔高管在最近的业绩发布中表示:“"在AI推理基础设施中,CPU与GPU的比例已变为1:4的计算结构",并解释说“进一步趋向缩减到约1:1的水平"。
继GPU之后连CPU也参与内存争夺战......需求像雪球一样增加
随着搭裁内存的音争从GPU扩屏到CPU规模像雪球一样迅速膨胀。英伟达的下一代AI芯片"Bera Rubin”通过8颗HBM搭载了288GB,而AMD的下一代GPU MI400则以高达432GB的巨量容量引以为傲。
谷歌最近公布的定制芯片、第8代张量处理单元(TPU) TPU8i也将配备288GB的HBM容量。此外,如果英特尔的AI CPU "至强”(Xeon)和AMD的"霄龙”(EPYC)也开始使用最高400GB的大容量DDR5,内存短缺现象可能会进一步持续。
业内人士表示:“目前DRAM市场供应量相比需求大约短缺10个百分点。据美股投资网所知,随着HBM之外通用DRAM需求的急速增长,超级周期很可能从原来的2026年延长到2027年。












