打开网易新闻 查看精彩图片

Meta 的雷朋联名智能眼镜又更新了。这次他们把营养追踪、WhatsApp 摘要、屏幕录制塞了进去,还顺便给翻译功能加了五门语言——听起来像一次诚意满满的升级,直到你发现步行导航依然困在曼哈顿。

先说这个营养追踪。用户拍张食物照片,AI 自动识别热量和营养成分,记进日志,越用越懂你。原理不复杂,手机 App 早就能干,但 Meta 的算盘是:让你忘了带手机的时候,抬手就能拍。问题是,谁会在餐厅里对着牛排举起眼镜?社交场合的羞耻感,可能是这个功能最大的技术壁垒。

WhatsApp 消息摘要倒是踩中了痛点。眼镜用自然语言帮你总结未读对话,而且强调"设备端处理、端到端加密"——翻译成人话就是:Meta 自己也偷看不了。这在隐私焦虑泛滥的当下,算是一张必要的安全牌。

导航的饼画得更大:从 28 个城市扩展到"全美所有城市"。但 IT 之家的实测泼了冷水——纽约州名义上支持,实际仅限曼哈顿核心区。换句话说,出了中城,这功能就瞎了。这种"覆盖全美"的文字游戏,让人想起某些运营商的"全国信号覆盖"地图。

屏幕录制功能最实在。博主们早就吐槽:波导显示的 UI 根本拍不清,观众永远看不到眼镜里到底在显示什么。现在可以录屏了,还能同步收音和摄像头画面——终于不用拿手机对着镜子拍眼镜,再让观众猜谜了。

翻译新增了印地语、阿拉伯语、俄语、瑞典语和芬兰语,夏天还要上中日韩。语言库在扩张,但实时翻译的延迟和准确度,才是决定它能不能替代翻译机的关键。目前没人知道。

Meta 给这次更新定调为"第二次重大升级"。但看下来,更像是一次功能补全——把发布会上吹过的牛,慢慢兑现成能用的东西。一位提前体验的博主在 Reddit 上写道:营养追踪识别我的沙拉用了四秒,足够邻桌的人问我是不是在录像。