打开网易新闻 查看精彩图片

Meta的Ray-Ban智能眼镜又要更新了,这次它想当你的营养师。不是那种偶尔提醒"该吃水果了"的温和派,而是每顿饭都盯着你看、自动记录、实时点评的硬核派。

按官方说法,今年夏天上线的功能让用户用语音或拍张照就能记录食物,AI会"提取关键营养信息"同步到手机App。再往后,连拍照都省了——眼镜会"理解你在吃什么",自动帮你记账。

听起来省事?营养学界和心理健康专家已经开骂了。

从"辅助工具"到"饮食监控",只隔一次更新

从"辅助工具"到"饮食监控",只隔一次更新

现有饮食记录App已经够让人焦虑了。MyFitnessPal用户平均每天花17分钟输入食物,精确到克。这17分钟里,很多人在做的不是健康管理,是自我审判。

Meta把门槛砍到零。不用打开App,不用搜索食物条目,甚至不用意识到自己正在被记录。眼镜看到的每一口饭,都可能变成数据流进算法。

问题出在"无感"这个卖点上。当记录变得毫不费力,它也变得不可逃避。你没法再用"今天太忙忘了记"当借口,因为机器没忘。这种全时段覆盖,把饮食从私人体验变成了持续被评估的表演。

更微妙的是反馈机制。Meta的演示文案写着:"你的食物日志会驱动越来越个性化的洞察,帮助你做出更健康、更知情的选择。"

翻译一下:系统会根据你的历史数据,不断调整对你的判断标准。今天多吃了一块蛋糕,明天的"健康建议"就会收紧。这不是静态的营养指南,是一个会学习你弱点、并据此训练你的动态系统。

AI营养师的黑箱:它怎么知道盘子里是什么

AI营养师的黑箱:它怎么知道盘子里是什么

技术层面,这套系统要过三关:识别食物种类、估算成分比例、判断份量大小。

第一关相对好办。图像识别区分寿司和汉堡,准确率能做到90%以上。但第二关和第三关是灾难现场。

同样一盘红烧肉,家庭做法和餐厅做法的糖油比例可能差三倍。AI眼镜隔着半米距离,怎么区分?它看不到后厨加了什么料,只能猜。这个"猜"会被包装成确定的数据呈现给用户——"387千卡,脂肪占比42%",小数点后两位,看着很科学。

份量估算更麻烦。中国人吃饭用转盘,夹一筷子是一筷子,没有标准化容器。AI怎么判断你吃了几口、剩了多少?它只能假设你吃完了整盘,或者根据咀嚼动作推测——这要求摄像头持续对准你的嘴。

误差会被系统性放大。低估热量让人放松警惕,高估热量则制造不必要的焦虑。而焦虑驱动的用户,恰恰是这类功能最忠实的使用者。

伦敦国王学院饮食失调研究中心的顾问 psychiatrist Dr. Agnes Ayton 指出:「对于容易发展出饮食失调的人群,精确的热量追踪本身就是风险因素。」Meta把这个风险因素自动化、隐形化了。

当AI学会回答"我胖吗"

当AI学会回答"我胖吗"

官方演示里的示例问题很安全:"吃什么能增加精力?"

但用户实际会问什么?历史数据很清楚。2023年,美国国立卫生研究院记录到与"减肥"相关的AI查询中,23%包含极端节食关键词。ChatGPT曾被发现给青少年提供每日800千卡以下的 starvation diet 建议,直到媒体曝光后才打补丁。

Meta的AI没有免疫机制。它会被训练成"有帮助的助手",而"有帮助"在饮食语境下往往意味着迎合用户的执念。问"跳过这顿能变瘦吗",它可能回答"短期减重可行,但建议咨询专业人士"——这种模棱两可的肯定,对进食障碍患者就是许可证。

反过来也一样危险。健身圈的"增肌焦虑"正在蔓延,Reddit上r/gainit板块有47万成员,大量帖子描述强迫性进食。AI如果检测到用户目标为"增重",可能推荐超量摄入,无视代谢负担。

最麻烦的是自动记录功能。用户甚至不需要主动提问,系统就会基于"理解"生成洞察。这种被动接收的评价,比主动查询更难防御。你吃着饭,耳边突然响起:"本周碳水摄入较上周上升15%"——没有上下文,没有解释,就一个数字,足够让某些人放下筷子。

隐私是明牌,成瘾是暗牌

隐私是明牌,成瘾是暗牌

自动记录意味着持续录像。Meta承诺"只在必要时激活",但"必要"的定义权在公司手里。餐厅、聚餐、家庭晚餐——这些场景下的录像边界在哪?

欧盟已经盯上这款眼镜。意大利数据保护局2024年的调查指出,Ray-Ban眼镜的指示灯太小,被拍摄者难以察觉。德国部分餐厅直接禁止佩戴。现在加上饮食识别,争议只会升级。

但隐私问题至少是可见的。更隐蔽的是行为成瘾设计。

食物日志的"游戏化"已经被研究透了。连续记录天数、营养达标徽章、与好友的排名对比——这些机制从健身App抄过来,换成眼镜形态更侵入。你的视野里随时可能弹出"今日蛋白质未达标"的提示,而你甚至不记得自己授权过这个提醒。

Meta的商业模式依赖用户时长。一个每天打开三次的App,和一个全天候佩戴的设备,变现效率完全不同。饮食是最高频的日常行为之一,把这块数据拿下,等于在用户的生理需求上装了一个接口。

产品经理解读:为什么偏偏是"吃"

产品经理解读:为什么偏偏是"吃"

从产品经理视角看,这个选择很精明。

健康是智能穿戴的下一个战场,但心率、血氧、睡眠这些指标,Apple Watch已经做得够好。差异化只能从"视觉"找——这是眼镜独有的传感器优势。

饮食记录是视觉AI的甜点场景。食物有明确的外观特征,识别难度比"情绪识别"或"社交意图判断"低一个数量级。同时,它触达的用户痛点真实存在:确实有人想管理饮食,确实有人觉得手动记录麻烦。

但产品设计的伦理评估明显缺位。功能上线前的用户研究,有没有纳入饮食失调康复者?自动记录的场景边界,有没有经过心理健康专家审核?从发布节奏看,这些步骤要么被压缩,要么被"技术可行性"论证替代了。

这不是Meta独有的问题。整个AI硬件行业都在赛跑,谁先占领场景谁定义标准。饮食这个场景太肥了,没人愿意等完整的伦理审查走完。

结果是用户当试验品。今年夏天第一批自动记录功能上线时,不会有任何风险提示弹窗告诉你:"此功能可能加剧饮食焦虑。"它只会安静地启动,像所有"帮助你看清世界"的功能一样。

一位前Meta AI伦理研究员在匿名采访中表示:「营养追踪的自动化程度与心理风险呈正相关,但我们的指标只衡量功能使用率。」

如果使用率飙升而投诉率可控,这个功能就会扩张。至于医院急诊科里新增的进食障碍病例,要归因到眼镜上,统计链路太长了。

回到那个核心矛盾:技术让记录变容易,但没有让理解变容易。AI给出的数字越精确,用户越可能忘记这些数字是怎么猜出来的。而当一个人开始用机器的视觉替代自己的饥饿感,他就把身体的主权外包出去了。

Meta说这会帮助人们做出"更健康、更知情的选择"。但知情的前提是知道自己在被什么影响——而自动记录的设计哲学,恰恰是让影响不可见。

夏天之后,第一批用户会戴上这副眼镜走进餐厅。服务员可能没注意到镜腿上的指示灯,同桌的朋友可能不知道每道菜正在被扫描归类,而佩戴者自己,可能也会在某个时刻忘记:这个"更方便"的选择,是从什么时候开始的?