17173 > 游戏资讯 > 科技新闻 > 正文

SK 海力士探索 H3 混合存储:发挥 HBM 与 HBF 各自优势,优化 AI 推理负载能效

2026-02-12 12:01:51 神评论
17173 新闻导语

SK海力士H3混合存储架构:结合HBM与HBF优势,提升AI推理能效2.69倍!了解如何优化LLM工作负载。

2 月 12 日消息,SK 海力士在一篇发布于本月 4 日的论文中提出了 H3 混合存储架构,其混合配置 HBM 高带宽内存与 HBF 高带宽闪存,充分发挥两种介质各自的优势而避免其短板。

SK 海力士在论文中表示,HBF 与 HBM 相比,带宽相当、容量更大、访问延迟更长、写入耐久更差、功耗更高,因此 H3 将 HBF 作为 HBM 的“二级扩展”,HBF 存储只读数据、HBM 则负责其余数据。

▲ 简略手绘概念图(非论文图片),H3 即 HBM+HBF 的整体

具体在结构方面,H3 上 GPU 与 HBM 的 Base Die 通过中介层互联,HBM Base Die 内置了 HBM 控制器和与 HBF 系统配套的“延迟隐藏缓冲”,HBM Base Die 再通过中介层与 HBF Base Die 连接,后者则包含 HBF 堆栈的控制器。

这一设计使得 H3 能存储大量只读数据,适合 LLM 推理工作负载环境,特别是那些采用共享预计算键值缓存的用例。仿真测试结果表明,相较于仅使用 HBM 的传统系统,配备 H3 的 GPU 单位功耗的吞吐量提高了 2.69 倍,显示出该架构在处理具有海量只读数据的 LLM 推理方面的成本效益。

参考资料:

H3: Hybrid Architecture Using High Bandwidth Memory and High Bandwidth Flash for Cost-Efficient LLM Inference

【来源:IT之家】
关于SK 海力士,H3 混合存储,HBM,HBF,AI 推理,LLM,GPU,能效优化,高带宽内存,键值缓存的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷