2006年你用什么查外文?翻词典、问导游、比划手势。现在10亿人每月扔给同一个工具1万亿个词——足够把《红楼梦》翻译成247种语言各抄400遍。

从联合国文件里"扒"出来的第一代

打开网易新闻 查看精彩图片

Google翻译刚上线时没现在这些花里胡哨的神经网络。它靠的是统计机器翻译——一个简单粗暴的办法:啃完联合国和欧盟的数百万份多语文件,找"这个短语在A语言出现,同时在B语言出现"的规律。

问题是这种"撞库"式翻译太老实了。逐词对应的结果,经常像用Excel公式写情书——语法没错,人话不像。

2014年是个转折点。Google收购了Word Lens,摄像头实时翻译成为可能。对准外文菜单、路牌、药品说明书,屏幕上直接叠一层母语——这功能现在用起来理所当然,当年是魔法。

神经网络来了:终于开始"读整句"

2016年Google神经机器翻译上线,核心变化一句话:从"一个词一个词翻"变成"先读完整句再理解"。

上下文进来了,语气进来了,人话也进来了。之前能把"kick the bucket"直译成"踢桶",现在知道这是"翘辫子"。

语言库跟着膨胀。2006年只有阿拉伯语和英语两种,现在接近250种语言、6万多组语言对。很多是小语种和方言——斯瓦希里语、夏威夷语、意第绪语都在里面。

现在能玩什么:AI纠音和实时口译

Android用户有个新玩具:AI发音教练。对着手机说外语,系统实时打分纠正。不是简单比对波形,是判断你的口型、重音、节奏像不像母语者。

Interpreter Mode(口译模式)则是把翻译机变成三角对话工具。你说中文,对方说日语,手机在中间实时双向翻译——适合医院、银行、警局这种需要准确但没人带同传的场合。

摄像头翻译也在进化。不只是替换文字,现在能保留原图排版、字体、背景,把"巴黎街头咖啡店的法文黑板"直接变成"中文黑板",而不是贴一张白底黑字的便签。

20年没变的底层逻辑

Google翻译的生存法则一直没变:用最大规模的数据喂最实用的场景。旅行、点餐、看病、看说明书——这些高频刚需撑起了10亿用户的基本盘。

技术迭代都是围绕"让人敢开口"这个点。统计时代解决"有没有",神经时代解决"像不像人话",AI时代开始解决"敢不敢说出来"。

一个冷知识:那1万亿月翻译量里,有多少是游客问路,多少是跨境电商改详情页,多少是留学生赶due?Google没公布,但这比例可能决定了下一个20年它往哪走。

你现在打开翻译软件,是救急还是日常?如果哪天它突然收费,哪些功能你愿意买单?