全天候科技 1小时前
腾讯开源的这款手机端侧模型,剑指离线翻译场景
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者 | 黄昱

腾讯加快推进大模型在实际场景中的落地,这一次轮到了翻译场景。

4 月 29 日,腾讯混元推出并开源极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网,下载即可直接在手机本地运行。

除了模型权重开源,腾讯混元也推出了一个实际可用的 " 腾讯混元翻译 Demo 版 ",并特别适配了 " 后台取词模式 "。

无论是在本地查看邮件还是浏览网页,混元翻译都能随叫随到。

华尔街见闻体验腾讯混元翻译 Demo 版后发现,该版本也无需网络,无需订阅。目前国内用户在魔搭社区即可下载,但只能在安卓端运行,iOS 还未适配。

腾讯方面表示,该腾讯混元翻译 Demo 版也完全本地处理、不涉及个人信息的采集和上传,一次下载永久使用。

如果实际翻译能力能够比肩有道翻译官、谷歌翻译等市面主流翻译工具,且保持永久免费、离线本地运行、不上传隐私数据的优势,那腾讯此番动作,无疑将搅动整个翻译赛道格局。

腾讯混元这一离线翻译模型基于混元翻译大模型 Hy-mt1.5 打造 。Hy-mt1.5 是腾讯混元团队打造的专业翻译大模型,模型参数为 1.8B,原生支持 33 种语言、5 种方言 / 民汉及 1056 个翻译方向。

腾讯透露,Hy-mt1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果 。在严格的评测基准中,其翻译质量也超越了 Google 翻译等主流系统。

在实际业务场景中,混元团队发现原始的 1.8B 模型即使在 FP16 精度下,依然占用 3.3GB 内存,对于手机内存来说,依然太大、太慢,所以需要量化压缩。

因此针对不同的手机用户, 腾讯特别推出了 2-bit 与 1.25-bit 两种极致的量化压缩方案。

在 AI 应用爆发的当下,各家都在拼命为各自的大模型找到合适细分场景。

除了腾讯混元,国内外大厂在手机端离线 AI 翻译这块其实早就卷起来了,不少都推出了轻量级、可端侧离线运行的开源翻译模型,包括阿里、谷歌、Meta 等。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

翻译 腾讯 开源 ai 安卓
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论