本文由第三方AI基于17173文章http://news.17173.com/content/02212026/020222271.shtml提炼总结而成,可能与原文真实意图存在偏差。不代表网站观点和立场。推荐点击链接阅读原文细致比对和校验。
宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM
2026-02-21 02:02:22
神评论
17173 新闻导语
印度Sarvam发布两款从0构建的MoE大模型!105B模型性能超越谷歌Gemini,支持128K上下文,即将开源。点击了解详情!
2 月 20 日消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。

Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。

Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
【来源:IT之家】
今日热点
热门测试游戏
- 1首曝即放9分钟实机演示!RPG新游《棱镜2033》首曝
- 2385TB!全球最大经典游戏库无奈关闭 粉丝全存下来了
- 3涨价了!雷军官宣:新一代小米SU7定档3月19日
- 4游戏史上素质最差的玩家!被官方直接封号1000年!
- 5《天涯明月刀》新版本爆料:全新2V2玩法,还有全服押镖!
- 6自由切换双形态!《魔兽世界》新版本曝首轮职业调整
- 7史上最震撼视觉体验?《红色沙漠》PC版专属画质升级
- 8那个只有中国人才玩得的游戏,出续作了!《文字游戏世界》今日正式上市!
- 9《传奇世界》时光版新区「马上来财」3月20日开启!预注册现已开放!
- 10《ARC Raiders》总监发声:呼吁行业给予失败项目更多宽容与机会

