GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列
GLM-5大模型官宣支持华为、寒武纪等7大国产芯片平台!7440亿参数,编程能力世界前三,四大技术创新提升性能,部署成本降低50%。
春节期间国产AI大模型轮番登场,除了DeepSeek V4还在低调之外,几家热门模型都来了,其中智谱的GLM-5是其中热度最高的之一。
从智谱官网介绍来看,GLM-5重点就是提升编程与智能体能力,其参数量达到了7440亿,是上代GLM-4.X的2倍左右,性能提升很明显。
此前有海外的AI博主测试其代理编程能力世界第一,综合编程能力世界第三,仅次于Opus 4.6及Gemini 3 Pro,但超越了Opus 4.5。
发布之后由于太受欢迎,导致GLM-5需求暴涨,甚至导致算力不够,用户体验下滑,为此智谱还发布了道歉信,并给出了补偿方案,其能力表现可见一斑。

今天智谱还发布了GLM-5大模型的技术报告,特别提到了性能提升主要来自于四大技术创新,具体如下:
1、引入DSA稀疏注意力机制(DeepSeek Sparse Attention, DSA),极大降低了训练与推理成本。
此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。
得益于此,智谱将模型参数规模扩展至 744B,同时将训练Token规模提升至28.5T。
2、构建全新的异步RL基础设施
基于GLM-4.5时期 slime 框架“训练与推理解耦”的设计,智谱的新基建进一步实现了“生成与训练”的深度解耦,将GPU利用率推向极致。系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL后训练流程的效率实现了质的飞跃。
3、提出全新的异步Agent RL算法
该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,研发的异步算法使模型能够从多样化的长周期交互中持续学习。
这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是GLM-5能够在真实编程场景中表现卓越的底层逻辑。
4、全面拥抱国产算力生态
从模型发布伊始,GLM-5就原生适配了中国GPU生态。智谱已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。
据介绍,GLM-5在单台国产算力节点上的性能表现,已足可媲美由两台国际主流GPU组成的计算集群,不仅如此,在长序列处理场景下,其部署成本更是大幅降低了 50%。

- IT早报 0223:苹果 3 月将发布“至少五款产品”;SpaceX 星舰下月将再次试飞;上汽名爵成首个欧英销量破百万的中国汽车品牌;三星 Galaxy S26 Ultra 宣传材料曝光... 2026-02-23
- 智谱公开最新一代大模型 GLM-5 技术细节,性能显著提升 2026-02-22
- 规则透明度不够 GLM-5 灰度节奏太慢 智谱就GLM Coding Plan问题致歉并公布补偿方案 2026-02-22
- 登上企业家之夜舞台22天后,智谱市值翻了3倍,突破3200亿港元 2026-02-22
- 智谱发布 GLM Coding Plan 致歉信:规则透明度不够、GLM-5 灰度节奏太慢、老用户升级机制设计粗糙 2026-02-22

