国产GPU就是牛!摩尔线程全链路适配DeepSeek-V4
摩尔线程MTT S5000国产GPU成功适配DeepSeek-V4!实现框架级兼容、开箱即落地,原生FP8算力提升推理效率,释放长上下文性能。点击了解国产AI芯片突破!
摩尔线程的旗舰级AI训推一体智算卡MTT S5000,搭配自研的MUSA软件栈,基于SGLang开源推理框架,成功完成了DeepSeek-V4的完整运行验证。
至此,摩尔线程已构建起从硬件架构核心计算引擎承接、热点算子支持,再到端到端部署验证的系统化适配链路,证明国产GPU可以实现前沿大模型的“框架级兼容、开箱即落地”。
随着大模型架构持续演进,DeepSeek-V4等先进模型对底层精度能力、算子覆盖、编译优化、并行通信和推理效率提出了严苛要求。
摩尔线程充分发挥S5000原生FP8算力、MUSA对CUDA深度兼容、TileLang MUSA编译器对TileLang生态完美支持等优势,结合TileKernels开源库复用,基于TileLang快捷开发自定义算子等手段,快速打通了DeepSeek-V4推理适配链路。
值得注意的是,TileLang-MUSA已正式进入TileLang官方主线,实现了对DeepSeek-V4最新发布TileLang算子库TileKernels的Day-0无缝支持。
这意味着,MUSA平台已具备承载前沿LLM算子生态的工程基础,为后续先进开源模型适配提供了直接复用的算子通路。
▼ TileKernels算子库开源地址:
https://github.com/tile-ai/tilelang-musa
通过MUSA对CUDA的全栈兼容,实现核心主流AI框架快速适配,复用开源 TileKernels算子替代标准融合模式,并借助AI Agent基于TileLang完成模型特异性算子的快速开发与验证。
得益于MUSA对AI软件生态良好的兼容性,DeepSeek-V4在MUSA平台上可实现从核心算子适配,到端到端拉起,再到系统级性能调优的工程级加速。
该方案在保证计算语义零偏差的前提下,显著压缩了Kernel级开发及适配周期,并进一步释放关键算子的性能,例如,RMSNorm等带宽瓶颈算子带宽利用率可达80%。
上述三层路径快速打通,得益于摩尔线程S5000 原生FP8算力底座支撑,完整承接前沿混合精度模型推理需求,在保持模型精度的同时,实现高吞吐、低显存占用与显存带宽的高效利用。
该能力深度对齐DeepSeek V4等先进MoE模型的精度演进范式,确保DeepGEMM、FlashMLA、DeepEP等核心算子在MUSA平台上快速适配。
在完整模型链路适配的基础上,摩尔线程在S5000上针对FlashMLA DSA的Prefill(预填充)与Decode(解码)场景开展了专项优化,采用了一致的底层优化逻辑:
围绕完整推理链路,摩尔线程建立了覆盖MUSA Kernel验证、算子级精度对齐、优化路径选择、端到端场景回归四层验证体系,确保关键算子在实际运行中的正确性及稳定性。


