第一时间!摩尔线程MTT S5000适配阿里Qwen3.5三款新模型
摩尔线程MTT S5000极速适配阿里Qwen3.5三款新模型,原生支持混合注意力机制,AI算力达1000 TFLOPS,性能对标H100,助力大模型高效推理。
在开源大规模的Qwen3.5-397B-A17B之后,阿里宣布再次开源千问Qwen3.5最新三款中等规模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。
摩尔线程第一时间极速响应,在旗舰级AI训推一体全功能GPU MTT S5000上完成了对这三款全新模型的全方位适配。
此次高效支持,充分展示了摩尔线程MUSA生态的成熟度与完备性。
在本次Qwen3.5系列模型的适配过程中,MUSA生态赋能开发者的两大核心能力得到了有力验证:
▼原生MUSA C支持:
允许开发者直接使用MUSA C进行内核开发,大幅降低CUDA生态迁移门槛;
▼深度兼容Triton-MUSA:
开发者可使用熟悉的Triton语法编写高性能算子,并通过Triton-MUSA后端,无缝运行在摩尔线程全功能GPU上。
在底层技术层面,针对Qwen3.5多模态模型采用的混合注意力机制,摩尔线程实现了原生优化。
基于muDNN计算库和MATE开源算子库,摩尔线程为混合注意力机制中的长序列处理提供高效支撑,成功在MTT S5000上实现了该模型的高性能推理。
从GLM-5、MiniMax M2.5、Kimi K2.5到Qwen3.5系列,摩尔线程对SOTA大模型的极速适配已成常态。

MTT S5000是摩尔线程专为大模型训练、推理及高性能计算设计的全功能GPU智算卡,基于第四代MUSA架构“平湖”,原生适配PyTorch、Megatron-LM、vLLM、SGLang等主流框架。
MTT S5000单卡配备多达80GB显存,显存带宽高达1.6TB/s,对比上代MTT S4000分别提升了67%、113%,多卡间的互联带宽也有784GB/s。
它完整支持从FP8到FP64的全精度计算,而且是国内最早原生支持FP8精度的训练GPU之一,配置了硬件级FP8 Tensor Core加速单元。
单卡FP8 AI算力最高可达1000 TFLOPS,首次达到PFLOPS级别,也就是每秒1千万亿次计算,实测性能可以对标NVIDIA H100,尤其是在多模态大模型微调任务中,部分性能更是超越H100,甚至开始接近最新的Blackwell架构。
- 1《王者荣耀世界》公测最全最细保姆级攻略,快速升级避坑不走弯路
- 2MMORPG《尤弥尔传奇》上线Steam 新职业同步推出
- 3曾经腾讯最火游戏之一,几乎QQ用户每个人都玩,停服的真相竟是…
- 4《剑星2》公布在即?开发商直言:好游戏是靠”屁股“做出来的
- 5游戏开发者因为觉得B站UP主可爱,于是把她做进了游戏,职业是青楼女子
- 6PC MMORPG《救世之树》推出新职业“海军准将”
- 7丝滑还是劝退?《梦幻西游》实装60帧引玩家争议
- 8和大雷公主的涩涩复仇冒险之旅 《星的归还者》Steam商店上线
- 9《魔法门之英雄无敌:上古纪元》4月30日抢先体验 体验不一样的全新作品
- 10首杀工会全团震惊!《魔兽世界》团本时隔9年再现隐藏阶段!


