MTEB 多语言榜单全球第一:腾讯开源百亿参数模型 KaLM-Embedding
17173 新闻导语
腾讯开源KaLM-Embedding获MTEB多语言榜单全球第一!120亿参数模型,支持1038种语言,综合得分72.32。开源免费商用,提升AI语义理解与检索能力。
腾讯开源官方公众号今日宣布:来自腾讯微信团队的 KaLM-Embedding 开源模型再创全球新纪录。在最新发布的 MTEB 多语言通用 Embedding 模型权威评测中,新一代通用 Embedding 模型KaLM-Embedding-Gemma3-12B-2511 综合成绩全球第一。

▲ 图源:腾讯开源公众号
在涵盖全球 1038 种语言、共计 131 项任务的权威多语言评测体系 MTEB 中,KaLM-Embedding-Gemma3-12B-2511 综合得分分别达到 72.32(Mean Task)与 62.51(Mean TaskType),获全球第一。
据腾讯开源介绍,在大模型技术快速发展的背景下,语义理解能力成为人工智能系统落地的关键。Embedding 模型作为实现语义编码的核心技术,通过将文本转化为高维向量,支持非结构化内容可度量、可检索的特性,为上层应用提供基础支撑。
在 RAG(检索增强生成)等主流架构中,Embedding 模型能够从海量知识库中精准检索语义相关信息,动态构建高质量上下文,有效提升大模型生成结果的准确性与可靠性,抑制“幻觉”现象。
此外,Embedding 技术还应用于文本分类、语义匹配、信息聚类、搜索推荐、多语言理解等多个领域,成为现代 AI 系统中不可或缺的语义基础组件。
附 KaLM-Embedding-Gemma3-12B-2511 核心亮点如下:
模型规模:参数量提升至 120 亿(12B),是当前 MTEB 榜单上最大规模的 Embedding 模型之一,显著增强了模型的表示能力与泛化性能。
跨语言能力:在多语言语义对齐方面实现显著优化,支持更精准的跨语种语义理解与检索任务。
数据质量:基于经过深度清洗与筛选的大规模高质量语料进行训练,有效提升语义表示的一致性与可靠性。
训练策略:采用多阶段对比学习、Embedding 蒸馏和模型参数融合等技术,进一步提升模型多维度能力表现与综合性能。
维度嵌套:支持多种向量维度选择,涵盖 3840、2048、1024、512、256、128 及 64 等多个层级,满足不同场景下的高效应用需求。
百亿参数模型 KaLM-Embedding 获取、技术论文等如下:
模型获取:https://huggingface.co/tencent/KaLM-Embedding-Gemma3-12B-2511
讨论反馈:https://huggingface.co/tencent/KaLM-Embedding-Gemma3-12B-2511/discussions
技术论文:https://arxiv.org/abs/2506.20923
开源协议:采用 MIT 许可证,支持商业用途,助力技术广泛传播与应用。
关于KaLM-Embedding,MTEB,多语言,Embedding模型,语义理解,RAG,检索增强生成,百亿参数,开源,腾讯的新闻
- (2025-12-09) 经典版QQ回归!腾讯张军回应:偏好有时候是一种轮回
- (2025-12-09) 智谱开源会操作手机的AI Agent模型AutoGLM:能自动操作微信、淘宝、抖音等
- (2025-12-09) Sensor Tower:11 月共 33 个中国厂商入围全球手游发行商收入榜 TOP100,合计吸金 19.5 亿美元
- (2025-12-09) 《漂流品》版本更新 - 1.0 - 多语言文本缩放卡死修复
- (2025-12-08) 为何都想进大厂!国内互联网大厂员工福利一览:你喜欢哪家



