快科技 11 月 26 日消息,据媒体报道,新加坡国家人工智能计划(AISG)正迎来一次关键的战略转向。在其最新的东南亚语言大模型项目中,AISG 放弃了 Meta 的模型,转而采用阿里巴巴的通义千问(Qwen)开源架构。这一选择不仅反映了技术路线上的重新考量,也标志着中国开源 AI 模型在全球影响力扩展中的重要一步。
11 月 25 日,AISG 发布了基于 Qwen 架构的 "Qwen-SEA-LION-v4" 模型,该模型迅速登顶一项衡量东南亚语言能力的开源榜单。此举旨在解决长期困扰该地区的语言适配难题——以 Meta 的 Llama 系列为代表的西方开源模型,在处理印尼语、泰语、马来语等区域性语言时表现欠佳,严重制约了本地化 AI 应用的开发效率。
尽管 Llama 在开源模型中性能领先,但其 " 英语中心主义 " 的底层设计难以根本改变,在处理泰语、缅甸语等非拉丁语系文字时效率极低。AISG 逐渐认识到,依赖硅谷的开源模型并非东南亚国家的最优解,必须寻找真正具备多语言理解能力、尤其是亚洲语言语境的基础模型。

在这一背景下,AISG 最终将目光投向了中国,选择以阿里的 Qwen3-32B 作为新一代 Sea-Lion 模型的基座。
与西方模型不同,Qwen3 在预训练阶段就使用了高达 36 万亿个 token 的数据,覆盖全球 119 种语言和方言。这种 " 原生多语言能力 " 使其不仅 " 认识 " 印尼语、马来语等文字,更能从底层理解其语法结构,大幅降低了 AISG 后续训练的技术门槛。
为更好地适配东南亚语言独特的书写习惯,Qwen-Sea-Lion-v4 摒弃了西方模型常用的 " 句子分词器 ",转而采用更先进的字节对编码(BPE)分词器。该技术能更精准地切分泰语、缅甸语等无空格语言中的字符,显著提升翻译准确度与推理速度。
除技术优势外,商业落地的现实考量也是阿里胜出的关键。东南亚地区拥有大量中小企业,难以承担昂贵的 H100 GPU 集群。而经过优化的 Qwen-Sea-Lion-v4 可在配备 32GB 内存的消费级笔记本电脑上流畅运行,使普通开发者也能在本地部署这一国家级模型。这种 " 工业级能力、消费级门槛 " 的特性,精准契合了该地区算力资源稀缺的痛点。
此次合作并非单向技术输出,而是一次深度的双向融合。根据协议,阿里提供了强大的通用推理底座,AISG 则贡献了其经过清洗的 1000 亿个东南亚语言 token。这些数据完全规避版权风险,且东南亚内容浓度高达 13%,是 Llama2 的 26 倍。
在 Sea-Helm 评估榜单中,搭载阿里技术核心的 Sea-Lion v4 迅速登顶同量级开源模型榜首,验证了这一战略合作的技术价值与区域适配性。



登录后才可以发布评论哦
打开小程序可以发布评论哦