你的iPhone可能比你想象的更懂外语——只要它是15 Pro或更新机型。

苹果在2024年6月推出Apple Intelligence(苹果智能)后,陆续上线了一系列AI功能。其中Live Translation(实时翻译)随iOS 26发布,2025年9月正式落地。TechRadar的John-Anthony Disotto评价它是"iOS 26最棒的功能,没有之一",原因很实在:和亲戚聊天时,语言障碍"快速且无缝地消失了"。

打开网易新闻 查看精彩图片

但这个功能有个尴尬的现实:大量国际对话发生在WhatsApp等第三方应用里,而Live Translation目前只绑定在苹果自带的信息App中。

功能藏在哪?三步找到开关

前提条件先确认:iPhone 15 Pro及以上机型,系统已更新至最新版本,Apple Intelligence开关处于开启状态。

进入信息App,打开目标对话。点击屏幕顶部的联系人姓名,向下滚动到"自动翻译"选项。系统会检测对话中的外语,你也可以手动选择语言。

截至2026年4月,该功能支持16种语言:英语、丹麦语、荷兰语、法语、德语、意大利语、挪威语、葡萄牙语、西班牙语、瑞典语、土耳其语、简体中文、繁体中文、日语、韩语、越南语。若所选语言未安装,下载需几分钟。

设置完成后,输入文字时屏幕会实时显示翻译结果。发送后,双方都能看到双语对照。群聊同样适用。

AirPods用户还有额外入口:耳机端的Live Translation功能可直接调用。

为什么设计成"半隐形"?

苹果的产品逻辑一贯如此——功能存在,但不主动打扰。没有弹窗引导,没有红点提示,用户必须主动挖掘。

这种设计的好处是界面干净,代价是大量用户根本不知道功能存在。考虑到Apple Intelligence仅限15 Pro及更新机型,实际可覆盖的用户基数被硬件门槛进一步压缩。

语言支持列表也透露了优先级:欧洲语言占主导,亚洲覆盖中日韩越,阿拉伯语、印地语、俄语等高频需求语言暂未列入。苹果表示"计划在未来更新中扩展",但无具体时间表。

第三方应用的围城

批评者的观点很直接:国际聊天场景早已被WhatsApp、WeChat、Telegram瓜分。信息App的Live Translation再好用,也翻译不了隔壁App里的对话。

这是苹果生态的固有张力。功能深度整合于原生应用,换取流畅体验;但原生应用的市场渗透率,决定了功能的天花板。对跨App高频用户来说,系统级翻译(如复制粘贴到翻译App)反而更实用。

不过,对于已经活在苹果生态内的用户——家人用iMessage、同事用FaceTime、旅行时和酒店前台短信沟通——Live Translation确实省了一道切换应用的工序。

翻译质量的隐藏变量

原文未提及具体准确率数据,但Disotto的"快速且无缝"评价暗示了可用性门槛已跨过。实时预览功能让用户在发送前就能修正歧义,这比事后翻译更可控。

双语对照显示的设计也值得注意:接收方能看到原文,避免"机器翻译腔"带来的信任损耗。群聊场景下,这一设计减少了"谁在说什么语言"的认知负担。

AirPods的打通则是典型的苹果式闭环——硬件、系统、服务三层咬合,单独看每一层都不惊艳,组合起来形成迁移成本。

数据收束

16种语言,15 Pro及以上机型限定,2025年9月上线,2026年4月仍在beta标签下。这些数字勾勒出一个谨慎推进的功能:苹果在翻译赛道上不追求首发,但追求生态内的体验完整性。

对于目标用户——硬件达标、对话场景集中在信息App、涉及语言在支持列表内——这是一个被低估的效率工具。对于其他人,它暂时只是设置菜单里一个未点亮的选项。