17173 > 游戏资讯 > 科技新闻 > 正文

戴尔CEO:AI内存需求将暴增625倍!买方彻底没了议价权

2026-04-10 11:03:15 神评论
17173 新闻导语

戴尔CEO预测AI内存需求将暴增625倍!NVIDIA加速器内存容量飙升,2028年达2TB,买方议价权消失。点击了解AI内存市场趋势!

据报道,戴尔创始人兼CEO Michael Dell近日发表了对AI内存市场前景的判断,预计到2028年,全球AI内存总需求将达到2023年水平的625倍。

这一惊人数字背后是两条增长曲线的叠加,Michael Dell指出,单颗AI加速器的内存容量和全球加速器部署规模正在同步扩张。

NVIDIA 2023年发布的H100搭载80GB HBM内存,预计到2028年,单颗AI加速器所需的内存容量将大幅跃升至2TB,实现约25倍的增长。

与此同时,全球数据中心内AI加速器的部署总量预计也将扩大约25倍,两者相乘,总内存需求便达到了625倍的量级。

从NVIDIA产品的演进路径也能看出这一趋势:H100(80GB HBM)、H200(141GB HBM)、B200(192GB HBM)、B300(288GB HBM)、Vera Rubin(288GB HBM4 + 1536GB SOCAMM = 1824GB)。

SOCAMM是由NVIDIA主导、联合三星、SK海力士、美光等厂商共同开发的模块化内存标准,专门面向AI服务器和AI PC的工作负载优化。

与HBM不同,SOCAMM承担的是CPU侧的大容量内存角色,在Vera Rubin平台上单颗即可提供1536GB容量,直接将单加速器系统的内存天花板推到了接近2TB。

Michael Dell还强调,内存供给的扩张需要数年时间,但当前AI基础设施的需求并未显示出任何放缓的迹象,“我们仍处于技术导入的早期阶段”。

【来源:快科技】
关于AI内存,NVIDIA,HBM,SOCAMM,AI加速器,数据中心,Michael Dell,Vera Rubin,H100,B200的新闻
17173 首页全新改版规划中!现向各位玩家征集真实使用意见,你的想法将直接影响新版页面设计~动动手指填写问卷,快来共创你心仪的页面布局吧! 参与问卷