2024年,谷歌云视觉API(应用程序接口)做了一次静默更新。热狗、汉堡、甜甜圈——这些美国人餐桌上的常客,突然从"食物"标签里消失了。
它们被重新归类为"小吃"(Snack)。
这个改动没有公告,没有迁移指南,也没有客服热线。但当餐饮SaaS(软件即服务)公司的工程师周一上班时,发现客户的库存系统全乱了——"早餐热狗"不再触发营养分析模块,因为系统只认"食物"不认"小吃"。
一个标签如何瘫痪3000家餐厅的后台
事件爆发于2024年3月。美国连锁早餐品牌EggHaus的技术负责人发现,他们依赖谷歌云视觉API自动识别菜单图片的功能突然失效。上传一张热狗照片,API返回的分类是"小吃",而他们的健康评分算法只处理"食物"类别。
更麻烦的是,这个改动是追溯性的。
历史数据全部重标。过去三年上传的12万张热狗图片,一夜之间从"食物"变成了"小吃"。没有版本控制,没有回滚选项,工程师们只能对着文档发呆——谷歌的更新日志里,关于这次改动的描述只有一句话:"优化了食品分类粒度。"
餐饮科技公司Toast的工程师在Reddit上吐槽:"我们花了两周才发现问题根源。之前以为是自己的bug(程序错误),把代码翻了五遍。"
谷歌云的回应来得很快,也很标准:这是"符合预期行为"的改进。热狗确实属于小吃,逻辑上没错。但"符合预期"这四个字,没能解释为什么没有任何提前通知。
AI标注的权力:谁定义什么是"食物"
这件事的荒诞之处在于,谷歌的工程师可能是对的。热狗在营养学语境下,确实更接近加工零食而非新鲜食材。但问题在于,这个判断被编码进了基础设施,数以千计的企业被迫接受一个从未参与制定的分类标准。
「我们理解分类系统的复杂性,」谷歌云发言人在邮件声明中写道,「但精确性是我们的优先事项。」
精确性。这个词在AI(人工智能)行业被用烂了。每一次模型更新,每一次标签调整,都被包装成"更精确"。但精确是对谁而言?对谷歌的算法团队,还是对依赖这套系统的中小企业?
一位不愿具名的计算机视觉研究员告诉我,这类改动在大型科技公司内部很常见。"分类体系是主观的。'食物'vs'小吃'的边界,不同文化、不同场景完全不同。但API(接口)文档不会告诉你这些灰色地带,它只给你一个布尔值(是/否)。"
布尔值不会道歉。
当EggHaus的客服开始接到顾客投诉——"为什么你们的热狗没有营养成分表?"——他们才发现,问题出在谷歌的云端,而不是自己的厨房。
从热狗到内容农场:同一套逻辑的蔓延
热狗事件三个月后,另一则新闻让技术圈哑然失笑。谷歌搜索开始大规模标记"AI生成内容",但标记标准同样模糊且专断。
科技媒体The Verge的编辑Nilay Patel发现,他们一篇完全由人类记者撰写的深度报道,被谷歌标记为"AI辅助创作"。而某些明显由大语言模型生成的产品评测,却顺利通过检测。
「我们的检测系统并不完美,」谷歌搜索联络人Danny Sullivan在X(原Twitter)上回应,「但我们在持续改进。」
同样的句式,同样的逻辑。精确性是目标,误判是代价,而代价由用户承担。
这让人想起热狗分类的后续。谷歌最终没有回滚改动,而是发布了一份"迁移最佳实践":建议开发者同时监听"食物"和"小吃"两个标签,并在应用层做映射。
翻译一下:我们改了规则,你们自己擦屁股。
一位独立开发者在Hacker News上算了笔账。他的食谱应用服务8000名付费用户,为了适配这次改动,他花了47小时重构分类逻辑。"我的时薪换算下来,这次更新成本约4000美元。谷歌云视觉API每月收我12美元。"
基础设施的傲慢:当API成为法律
技术作家Maggie Appleton曾提出一个概念:"协议化"(Protocolization)。当某个平台的服务成为行业默认选项,它的技术决策就获得了准法律地位。不是因为它正确,而是因为它方便。
谷歌云视觉API处理着全球约34%的图像识别请求(据2023年公开数据)。这不是垄断,但足够形成引力场。小公司不会为了"热狗是不是食物"这种问题自建模型,成本上不划算。
结果就是,一个产品经理在加州会议室里的分类决策,变成了俄亥俄州早餐店的运营故障。
「我们内部有严格的变更管理流程,」谷歌云的一位工程师在匿名采访中透露,「但食品分类被归类为'非破坏性更新',因为API响应格式没变,只是标签值变了。」
非破坏性。这个词的选择本身就说明问题。对谷歌的基础设施团队来说,JSON(一种数据格式)结构稳定就是"非破坏性"。至于下游业务逻辑是否依赖特定标签值,不在评估范围内。
这种认知鸿沟在AI时代被放大了。传统软件更新至少还有版本号,还有"破坏性变更"的明确定义。但机器学习模型的"改进"是连续的、模糊的、难以审计的。同一个输入,上周输出"食物",这周输出"小吃",系统告诉你:这是feature(特性),不是bug(缺陷)。
写作者的新困境:当工具重新定义创作
回到文章标题的另一半:AI辅助写作。
2024年,内容平台的检测工具正在制造类似的混乱。Substack(一个 newsletter 平台)开始给部分文章添加"AI辅助"标签,但检测标准从未公开。是用了Grammarly(一款语法检查工具)算辅助?还是必须有大段GPT(生成式预训练模型)生成的文本才算?
作家Casey Newton在Platformer通讯中描述了自己的遭遇。他的一篇调查报道被标记为"AI辅助",申诉后标签被移除,但没有任何解释。"我感觉自己在和自动评分系统打交道,"他写道,"而评分标准是一本锁在抽屉里的手册。"
这种不透明性正在改变创作行为。一些编辑开始避免使用某些句式,因为担心触发检测。另一些作家则反向操作:既然无法预测规则,干脆无视标签,让市场决定。
热狗和文章,看似风马牛不相及。但它们共享同一套基础设施逻辑:平台拥有定义权,用户承担适应成本,而"改进"的叙事让一切质疑显得不合时宜。
谷歌云视觉API的最新文档里,"小吃"分类下依然躺着热狗、汉堡、甜甜圈。没有注释说明这次改动的历史,没有警告提醒开发者检查依赖逻辑。它只是静静地在那里,像一个从未发生过争议的既定事实。
当你的工具开始重新定义你的工作,而你甚至不知道规则何时改变——这是技术赋权,还是一种更隐蔽的剥夺?
热门跟贴