17173 > 游戏资讯 > 科技新闻 > 正文

3TB 主内存 + 8TB CXL 内存:Penguin 推出 KV Cache 服务器

2026-03-17 20:06:31 神评论
17173 新闻导语

Penguin推出业界首款CXL KV Cache服务器,集成3TB主内存+8TB CXL内存,为AI推理提供11TB海量内存,显著降低延迟并提升吞吐量,专为金融分析、RAG等企业级任务优化。

3 月 17 日消息,Penguin Solutions 当地时间本月 16 日宣布推出业界首款采用 CXL 技术的量产型 KV Cache 服务器。其综合了 3TB 的 DDR5 系统主内存和 8 个 1TB 的 CXL 内存 AIC 模块,可为 AI 推理负载提供合计 11TB 的海量内存空间。

注意到,Penguin 表示 AI 推理通常而言 30% 依赖于算力而 70% 依赖于内存,这是此类工作负载与模型训练 / 调优最大的不同。同时,延迟表现也很大程度上影响了推理场景的用户使用体验。

Penguin Solutions 此次推出的 MemoryAI KV Cache 服务器可为 AI 推理系统带来更低的延迟、更短的首 Token 响应时间、更高的吞吐量、更高的 XPU 集群利用效率,持续满足严苛的服务水平一致性要求,尤其适合实时金融分析、海量数据集 RAG、监管合规性分析等需求大窗口和低延迟的企业级任务。

英伟达 GTC 2026 大会专题

【来源:IT之家】
关于KV Cache,AI 推理,CXL 内存,延迟,吞吐量,XPU 集群,MemoryAI,实时金融分析,RAG,监管合规性分析的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷