SRAM 想抢 HBM 的饭碗?英伟达黄仁勋:应用于 AI 芯片容量瓶颈是硬伤
英伟达黄仁勋回应SRAM能否替代HBM:AI芯片容量瓶颈是硬伤。SRAM虽快但容量不足,HBM灵活适应多变模型,确保AI系统高利用率。点击了解英伟达HBM路线选择原因。
科技媒体 Tom's Hardware 今天(1 月 8 日)发布博文,报道称在 CES 2026 展会期间的问答环节,英伟达首席执行官黄仁勋针对“是否用更廉价的 SRAM 取代昂贵的 HBM”这一行业热点进行了回应。
SRAM 全称为 Static Random Access Memory,直译为静态随机存取存储器,是高速小容量的静态缓存,基于触发器,速度极快但成本高、密度低;HBM 是超高带宽、大容量的 3D 堆叠式主存(基于 DRAM),通过垂直堆叠实现超高带宽,功耗低、容量大,主要用于 AI / GPU,两者定位不同,SRAM 是片上缓存,HBM 是系统级高带宽内存,共同服务 AI 算力需求。
AI 行业当前正积极寻找降低成本的途径。随着 SRAM 加速器、GDDR 推理方案以及开放权重模型的兴起,业界出现了一种声音,认为这些低成本方案可以缓解对英伟达昂贵组件的依赖。
特别是在基准测试(Benchmark)和受控演示中,SRAM 凭借极高的访问速度和无延迟特性,展现出了诱人的性能优势,甚至被视为 HBM 的潜在替代者。
黄仁勋并未否认 SRAM 的速度优势。他直言:“对于某些特定工作负载,SRAM 快得惊人。”然而,一旦进入生产级 AI 系统,SRAM 的优势便会因容量瓶颈而崩塌。
黄仁勋指出,SRAM 的容量增长速度远跟不上现代模型的需求,其可容纳的模型规模仅为 HBM 系统的百分之一。在模型因上下文增加或功能扩展而溢出 SRAM 时,系统被迫调用外部内存,导致效率优势瞬间消失。
黄仁勋进一步剖析了 AI 工作负载的不可预测性。现代 AI 模型形态各异,包含混合专家模型(MOE)、多模态任务、扩散模型及自回归模型等。
这些架构对硬件的压力点截然不同:有的依赖显存容量,有的依赖互连带宽(NVLink),且需求时刻在变。如果硬件针对某一特定模式(如纯 SRAM)过度优化,一旦工作负载发生变化,昂贵的芯片就会闲置。
基于此,英伟达坚持选择 HBM 路线。黄仁勋认为,在共享数据中心中,灵活性是决定经济效益的关键。即使某种专用硬件在 5%-10% 的任务中表现极致,但如果无法处理其余 90% 的通用任务,就会造成巨大的资源浪费。
相比之下,HBM 方案虽然物料成本更高,但能适应不断变化的算法和模型架构,确保硬件在数周甚至数月的运营周期内保持高利用率。
针对“开放模型是否会削弱英伟达壁垒”的提问,黄仁勋表示,开放并不意味着降低基础设施要求。随着开放模型整合更长的上下文和更多模态,其内存占用同样会激增。
英伟达愿意承担高昂的 HBM 成本和复杂的系统设计,正是为了保留“可选性”(Optionality),既防止客户被锁定在狭窄的性能范围内,也保护自身硬件免受模型架构快速迭代的冲击。

- CSOL圣诞特别版本上线:全新模式灾变禁区来袭!
- TGA压轴出场,大厂老兵新游到底好玩吗?盘点1月外服端游!
- 一看吓一跳:雷死人不偿命的囧图集(986)
- 正惊GIF:对职场骚扰说不!美少妇员工被领导暗示,直接请求丈夫帮助
- 热点预告:《天下贰》《龙之谷》领衔,多款MMO祭出开年首发新版本
- 王者荣耀:定了!S42赛季1月8日更新,段位继承表有变,新英雄大禹携全图传送上线
- 腾讯发力,三款游戏开测,其中一款是MMORPG!盘点2026年1月扎堆测试的游戏!
- 「体操服の‘液态曲线’!橘望顶配身材|白丝厚D呼之欲出,腰臀比秒杀建模」
- 《魔兽世界》时光服:附魔1-450快速性价比冲级攻略
- 一看吓一跳:雷死人不偿命的囧图集(987)



