本文由第三方AI基于17173文章http://news.17173.com/content/01292026/193251761.shtml提炼总结而成,可能与原文真实意图存在偏差。不代表网站观点和立场。推荐点击链接阅读原文细致比对和校验。
SOCAMM内存不再独属NVIDIA!AMD、高通都要用
2026-01-29 19:32:51
神评论
17173 新闻导语
AMD、高通将采用SOCAMM内存模块,打破NVIDIA独占!模块化设计可升级至TB级容量,助力AI系统处理百万token。了解最新AI内存技术趋势。
随着代理式AI应用的快速扩张,AI系统对内存的需求正在发生结构性转变。
据报道,AMD和高通正在评估在下一代AI产品和机架架构中引入SOCAMM内存模块。
SOCAMM最初被视为专为NVIDIA设计的内存标准,与传统焊接在主板上的LPDDR不同,SOCAMM采用模块化设计,可更换、可升级,并在容量、功耗和系统弹性间取得平衡。
而在代理式AI架构中,模型需要长时间维持上下文、状态和任务记忆,这使得系统对短期但大容量内存的需求显著增加。
与单纯依赖HBM相比,业界逐渐意识到需要引入另一层在成本、功耗和容量之间取得平衡的内存设计,因此,SOCAMM受到了广泛关注。
相关人士指出,SOCAMM可以让单一CPU或加速器平台配置达到TB级内存容量,使AI agent 能同时维持数百万个token的活跃状态。
虽然其带宽和吞吐量不及HBM,但在功耗效率和系统扩展性方面具有优势,被视为适合与HBM搭配使用的内存层级。
市场消息还显示,AMD和高通在SOCAMM的模块设计上可能采取与NVIDIA不同的路线。
这两家公司正在评估以方形模块形式配置DRAM,并将PMIC(电源管理IC)直接整合到模块本体之上,使电源调节可以在模块端完成。
在产品进度方面,NVIDIA已计划在其Vera Rubin中引入新一代SOCAMM 2,并预计随着出货规模的扩大,SOCAMM将成为 AI 系统的重要内存配置之一。
此前还有消息称,NVIDIA已向DRAM厂商提出了SOCAMM的年度需求规划,三星是主要供应来源,其次是SK海力士,美光则位居其后。

【来源:快科技】



