17173 > 游戏资讯 > 科技新闻 > 正文

超越英伟达、谷歌!腾讯KaLM-Embedding开源模型斩获MTEB多语言榜单全球第一

2025-11-12 17:01:41 神评论
17173 新闻导语

腾讯KaLM-Embedding开源模型斩获MTEB多语言榜单全球第一,超越英伟达、谷歌!120亿参数,支持1038种语言,综合得分72.32。点击了解技术亮点!

今日,“腾讯开源”微信公众号宣布,来自腾讯微信团队的KaLM-Embedding开源模型再创全球新纪录。

在最新发布的MTEB多语言通用Embedding模型权威评测中,新一代通用Embedding模型KaLM-Embedding-Gemma3-12B-2511综合成绩全球第一。

据介绍,在涵盖全球1038种语言、共计131项任务的权威多语言评测体系MTEB中,KaLM-Embedding-Gemma3-12B-2511综合得分分别达到72.32(Mean Task)与62.51(Mean TaskType),斩获全球第一。

超越包括英伟达nvidia/llama-embed-nemotron-8b、阿里Qwen/Qwen3-Embedding-8B、谷歌Google/gemini-embedding-001等国内外主流开源与闭源竞品。

KaLM-Embedding-Gemma3-12B-2511核心亮点解析

模型规模:参数量提升至120亿(12B),是当前MTEB榜单上最大规模的Embedding模型之一,显著增强了模型的表示能力与泛化性能。

跨语言能力:在多语言语义对齐方面实现显著优化,支持更精准的跨语种语义理解与检索任务。

数据质量:基于经过深度清洗与筛选的大规模高质量语料进行训练,有效提升语义表示的一致性与可靠性。

训练策略:采用多阶段对比学习、Embedding蒸馏和模型参数融合等技术,进一步提升模型多维度能力表现与综合性能。

维度嵌套:支持多种向量维度选择,涵盖3840、2048、1024、512、256、128及64等多个层级,满足不同场景下的高效应用需求。

【来源:快科技】
关于腾讯,KaLM-Embedding,开源模型,MTEB,多语言,Embedding模型,Gemma3,英伟达,谷歌,语义理解的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷