一个不到半G的文件,竟能在手机上离线翻译33种语言——而且腾讯说它比谷歌翻译还准。这听起来像是个技术噱头,还是真有颠覆性?

正方:端侧AI的"足够好"时刻到了

打开网易新闻 查看精彩图片

腾讯混元团队这次放出的Hy-MT1.5-1.8B-1.25bit模型,核心卖点是极端压缩。原始3.3GB被压到440MB,靠的是1.25比特量化技术——每个参数只用1.25个比特存储。团队称这比之前的1.67比特方案小了25%、快了10%,质量却没掉。

覆盖范围也不含糊:德语、英语、中文、日语、法语、藏语、蒙古语,外加五种方言,总共1056个翻译方向。标准测试里,它追平了商业服务和Qwen3-32B这种大得多的模型。腾讯还做了个安卓演示应用,APK直接下载,任何应用里都能划词离线翻译。

更关键的是时机。谷歌Gemma 4也在推本地手机运行,大厂们显然达成了共识:云端翻译的延迟和隐私痛点,该用端侧解决了。

反方:竞赛成绩≠真实体验,"离线"仍是小众场景

但"30项国际机器翻译竞赛第一"的说服力有限。竞赛数据集和真实用户输入的差距,从业者都懂——口语、错别字、专业术语才是日常雷区。

440MB对旗舰机不算啥,但对入门安卓机仍是负担。更现实的问题是:有多少人真的需要离线翻译?机场、酒店、餐厅——这些高频场景如今WiFi覆盖已极密。真正的刚需可能是跨境务工、偏远地区、或隐私极客,市场规模存疑。

还有商业模式。开源+APK下载,腾讯图什么?混元大模型的品牌曝光,还是为后续云服务导流?

判断:这不是翻译工具的终局,而是端侧AI的"压力测试"

腾讯这步棋的真正价值,或许不在翻译本身。1.25比特量化如果能复用到其他模型,意味着端侧可承载的AI能力边界被大幅拓宽。440MB是个心理关口——它证明"够小"和"够准"可以兼得。

对开发者来说,这提供了新的选项:不再必须在"云端精准但依赖网络"和"本地粗糙但随时可用"之间二选一。对行业来说,它加速了"AI能力下沉"的竞赛——谁能把更多智能塞进更小的设备,谁就能定义下一代交互。

至于它能不能真的替代谷歌翻译,取决于你愿不愿意为"离线"牺牲5%的准确率,以及你的手机存储还撑不撑得住。

如果440MB成了端侧模型的标准起点,下一个被压缩进手机的会是什么?语音克隆?实时视频生成?还是我们还没想到的东西?