AMD 推出 vLLM-ATOM 插件,加速 DeepSeek、Kimi 等 AI 推理性能
AMD推出vLLM-ATOM插件,无缝提升DeepSeek、Kimi等AI大模型推理性能!支持MI300X/MI350等GPU,零学习成本即可加速Qwen3、GLM等模型,企业部署更高效。
5 月 12 日消息,科技媒体 Wccftech 昨日(5 月 11 日)发布博文,报道称 AMD 推出 vLLM-ATOM 插件,在不改动现有 vLLM 命令、API 和工作流的前提下,提升 DeepSeek-R1、Kimi-K2 和 gpt-oss-120B 等大语言模型推理性能。
注:vLLM 是面向大语言模型部署的开源推理框架,重点优化高并发服务场景下的吞吐和显存利用率。与一般“单次调用”推理工具不同,它更强调请求调度、KV 缓存和连续批处理,适合企业把模型做成长期在线服务。
AMD 本次推出的 vLLM 插件提供了一套更贴近 AMD Instinct GPU 的推理优化方案,尽量不改变开发者现有使用方式,让用户继续使用原有 vLLM 命令、API 和端到端工作流,而插件会在后台接管优化。

vLLM-ATOM 插件重点面向 Instinct MI350、MI400,以及 MI355X 等 GPU。从架构上看,vLLM-ATOM 分成 3 层:
最上层的 vLLM 负责请求调度、KV 缓存管理、连续批处理,以及兼容 OpenAI 的 API。
中间层的 ATOM 插件负责平台注册、模型实现、注意力后端路由和内核调优。
最底层的 AITER 则提供 GPU 内核,包括融合 MoE、Flash Attention、量化 GEMM 和 RoPE 融合。
对企业和开发者来说,这套方案的核心价值不只是“更快”,还在于部署门槛更低。AMD 把它包装成“零学习成本”,意味着现有基于 vLLM 的服务流程理论上可以平滑迁移到 AMD 后端。
该插件支持多个模型,包括 Qwen3、DeepSeek、GLM、gpt-oss、Kimi 等,并覆盖 MoE、混合 MoE、稠密模型,以及文本加视觉的 VLM 场景。
该插件支持的代表模型包括 Qwen3-235B-A22B-Instruct-2507-FP8、DeepSeek-R1-0528、openai / gpt-oss-120b 和 amd / Kimi-K2.5-MXFP4。

- 1曾创下150万在线的上古网游《冒险岛》,终于又回来了
- 2《永恒之塔》手游首测试玩:复古MMO端游的简化版怀旧服
- 3《权力的游戏》IP改编3D动作网游,PC版5月14日抢先上线
- 4男子躺20米高竹竿上扮演济公 月薪过万 当事人:无防护措施 练了15年
- 5最新暗黑风MMO端游《无冕之烬》首测前瞻:前作换皮改成端
- 6绅士日报:NEXON又曝涩涩MMO新作,预告片画面太露骨,性感时装看过瘾!
- 7魔兽世界:比至暗之夜史诗包还贵,450R的房屋已经突破玩家底线
- 8夯爆了!魔兽世界再上央媒,这次居然是学习强国!
- 9《暗黑破坏神2:重制版》第14赛季定档5月23日开启
- 10《红色沙漠》更新后暗改女主服装,裙底加布料引玩家众怒

