17173 > 游戏资讯 > 科技新闻 > 正文

美团开源 LongCat-Flash-Prover 大模型:5600 亿参数,刷新两项 SOTA 水平

2026-03-21 16:02:42 神评论
17173 新闻导语

美团开源5600亿参数LongCat-Flash-Prover大模型,刷新数学证明SOTA水平!采用MoE架构,解决复杂推理问题,MiniF2F测试达97.1%准确率。立即查看开源地址!

感谢网友 Domado 的线索投递!

3 月 21 日消息,美团现已开源 LongCat-Flash-Prover 大模型,采用 5677 亿参数、MoE(混合专家模型)形态,旨在解决复杂的数学证明问题。

据介绍,该模型引入了混合专家迭代框架(hybrid-experts iteration framework),用于生成大规模、高质量的形式化推理轨迹。可通过整合 Lean4、基于 AST 的多阶段严格验证流程,消除“幻觉”现象。

训练方面,该模型使用混合专家迭代框架生成冷启动数据,并在强化学习阶段引入 HisPO 算法稳定 MoE 模型的长程任务训练。同时加入定理一致性和合法性检测机制防止 Reward Hacking(奖励黑客行为)。

基准测试表明,这款模型在 MiniF2F-Test 上取得 97.1% 的成绩,仅需 72 次推理尝试;在 PutnamBench 任务上解决了 41.5% 的问题,使用 118 次推理尝试,在上述两项测试中刷新 SOTA 水平。

附该模型开源地址如下:

GitHub:https://github.com/meituan-longcat/LongCat-Flash-Prover

Hugging Face:https://huggingface.co/meituan-longcat/LongCat-Flash-Prover

【来源:IT之家】
关于LongCat-Flash-Prover,美团,大模型,MoE,数学证明,SOTA,Lean4,强化学习,开源,参数的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷