17173 > 游戏资讯 > 科技新闻 > 正文

宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

2026-02-21 02:02:22 神评论
17173 新闻导语

印度Sarvam发布两款从0构建的MoE大模型!105B模型性能超越谷歌Gemini,支持128K上下文,即将开源。点击了解详情!

2 月 20 日消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。

Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。

Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。

【来源:IT之家】
关于Sarvam,AI,MoE,LLM,开源,Hugging Face,30B-A1B,105B-A9B,Gemini,DeepSeek的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷