快科技 11 月 12 日消息,今日," 腾讯开源 " 微信公众号宣布,来自腾讯微信团队的 KaLM-Embedding 开源模型再创全球新纪录。
在最新发布的 MTEB 多语言通用 Embedding 模型权威评测中,新一代通用 Embedding 模型 KaLM-Embedding-Gemma3-12B-2511 综合成绩全球第一。
据介绍,在涵盖全球 1038 种语言、共计 131 项任务的权威多语言评测体系 MTEB 中,KaLM-Embedding-Gemma3-12B-2511 综合得分分别达到 72.32(Mean Task)与 62.51(Mean TaskType),斩获全球第一。
超越包括英伟达 nvidia/llama-embed-nemotron-8b、阿里 Qwen/Qwen3-Embedding-8B、谷歌 Google/gemini-embedding-001 等国内外主流开源与闭源竞品。
KaLM-Embedding-Gemma3-12B-2511 核心亮点解析
模型规模:参数量提升至 120 亿(12B),是当前 MTEB 榜单上最大规模的 Embedding 模型之一,显著增强了模型的表示能力与泛化性能。
跨语言能力:在多语言语义对齐方面实现显著优化,支持更精准的跨语种语义理解与检索任务。
数据质量:基于经过深度清洗与筛选的大规模高质量语料进行训练,有效提升语义表示的一致性与可靠性。
训练策略:采用多阶段对比学习、Embedding 蒸馏和模型参数融合等技术,进一步提升模型多维度能力表现与综合性能。
维度嵌套:支持多种向量维度选择,涵盖 3840、2048、1024、512、256、128 及 64 等多个层级,满足不同场景下的高效应用需求。


登录后才可以发布评论哦
打开小程序可以发布评论哦