一位印度阿姨用泰米尔语问AI:"发烧三天了,吃扑热息痛够吗?"系统先是用英语回了一大段,最后才补上一句"请找会说泰米尔语的医生"。她愣是没看懂。

这不是翻译故障。这是过去三年Health AI的集体盲区——14亿非英语使用者被默认按下了静音键。

打开网易新闻 查看精彩图片

翻译层的"礼貌性崩溃"

原文里的AI回应堪称经典:先用英语分析病情,再建议"重新用英语提问"。

潜台词很直白:我假装听懂了你,但建议你换个我能懂的方式。

这种"翻译按钮后装"的架构,在日常闲聊里还能蒙混。一旦涉及医学——症状描述、用药剂量、检查项目——语义损耗直接变成安全风险。阿姨听到的"paracetamol may help"和她真正想问的"要不要去医院"完全是两道题。

母语推理 vs 英语内核

真正的差距在第二张图里摊开了。

同一症状,母语级AI的回应是:"发烧超过三天别只吃扑热息痛,得查登革热、伤寒、疟疾。做血常规+登革热NS1检测,24小时内看医生。"

没有翻译腔。没有"请用英语重新表述"。用药名是本地通用说法,时间单位用"24小时"而非"one day",连检查项目的缩写都按印度医院的习惯排列。

这不是语言包的差异,是推理层的差异——模型得先"想"成泰米尔语,而非想成英语再转码。

22种语言的"无英文化"实验

GoDavaii的做法是反向操作:不拿英语模型打底,直接让22种印度语言成为一等公民。泰米尔语、博杰普尔语、马拉地语、孟加拉语……列表长到能覆盖印度90%以上的门诊对话场景。

关键指标很朴素:用户能不能用"思考时的语言"完成一次完整的医疗咨询闭环。不是输入母语、输出英语,而是输入母语、获得母语级的医学逻辑。

团队现在公开测试,邀请用户"用家乡话提问,告诉我们哪里崩了"。这种"找茬式"迭代,本质上是在补过去三年Health AI欠下的语言债。

被忽视的"默认设置"陷阱

英语优先的设计惯性,让全球AI产品反复踩同一个坑:先把英语版做扎实,再"适配"其他市场。适配的结果往往是功能阉割或体验断层。

印度市场的特殊性在于——这里没有单一的"第二语言"。 Hindi不是所有人的Hindi,英语更是少数人的特权。Health AI要触达真正的下沉用户,必须从"翻译后装"转向"母语原生"。

阿姨测试的残酷之处在于:她不会反馈"体验不佳",只会默默关掉App,继续去排三小时的门诊队。沉默的流失比差评更致命。

冷幽默结尾

最讽刺的是那张系统提示:"Are you sure you want to hide this comment?"——连报错信息都是英语的。

印度阿姨大概会心想:我隐藏的不只是评论,是对整个AI医疗的信任。毕竟,一个连"发烧别硬扛"都要我用英语重说的系统,怎么敢托付发烧的孩子?