1666年,一颗苹果让牛顿顿悟万有引力。2024年,同一颗苹果让谷歌搜索算法连续三次误判,把历史图片标记为AI生成。两个数字隔着358年,却撞出了同一个荒诞:人类最引以为傲的识别系统,在常识面前栽了跟头。
第一次崩溃:教科书级图片被"打假"
事情始于2024年初。一位历史教师在谷歌图片搜索"牛顿苹果树"时,系统弹出黄色警告标签:「此图片可能由AI生成」。他以为是恶作剧,换了几张不同角度的牛顿画像,结果如出一辙。
这批图片的来源堪称正统——英国皇家学会档案、剑桥大学三一学院官网、甚至大英博物馆的数字馆藏。谷歌的生成式AI检测工具却给出了平均87%的"合成概率",最高一张达到94%。
技术社区很快扒出规律:问题集中在17-18世纪铜版画风格的肖像。这类图像有三大特征——高对比度线条、单一光源、面部细节简化。恰好与Midjourney(一款图像生成工具)的默认美学高度重合。
谷歌工程师在内部论坛的回应被截图流传:「训练数据里,这类风格的历史图片占比不足0.3%,而AI生成内容中复古风格占12%。模型学会了"看起来像AI"的统计相关性,而非"真的是AI"的因果关系。」
第二次崩溃:用户开始反向驯化系统
误判消息传开后,一批用户做了件更魔幻的事——他们用真实历史照片测试算法,专门挑风格"像AI"的。
结果触目惊心:梵高《星月夜》草图被标73%合成概率,达芬奇《维特鲁威人》手稿标81%,连NASA 1969年登月照片的黑白版本都被触发警告。一位Reddit用户调侃:「按这个标准,整个文艺复兴都是Midjourney的早鸟用户。」
谷歌的应对堪称狼狈。3月15日,他们悄悄下调了复古风格图片的检测阈值,从0.85降至0.72。但副作用立竿见影——一批真正的AI生成图片漏网,其中包括某政治人物深度伪造视频的截图。
「我们在用修修补补掩盖结构性缺陷。」一位前谷歌搜索产品经理在Blind(匿名职场社区)发帖,「检测模型的核心假设是'AI生成内容有统计指纹',但风格迁移、复古滤镜、低质量扫描都在制造假阳性。这不是bug,是设计层面的认知盲区。」
第三次崩溃:牛顿本人"被AI"了
最具讽刺意味的转折发生在6月。一位AI研究者用GPT-4o(多模态大语言模型)分析牛顿《自然哲学的数学原理》首版扫描件,询问"这段文字是否由AI生成"。
模型回答:「文本呈现典型的18世纪英语特征,但句式结构与现代大语言模型的输出分布有显著重叠。综合判断,有61%概率为AI辅助生成。」
这段对话在X平台获得2.3万转发。热评第一来自历史学家Tom Standage:「牛顿如果活着,会同时感到荣幸和困惑——他的拉丁文混搭风格,居然被当成了Transformer架构的祖先。」
谷歌被迫在7月发布技术白皮书,首次公开承认「风格检测与来源检测是两类问题,当前模型无法可靠区分」。但他们同时强调,搜索场景的误判率已降至"可接受水平"——却拒绝给出具体数字。
358年后的同一颗苹果
回到那颗苹果。牛顿故居的苹果树至今仍在,每年结果约200颗。2024年秋天,一位游客拍下树影照片上传谷歌,系统再次弹出警告。
这次的原因更微妙:照片背景中,一位穿汉服的游客使用了某国产手机的"古风人像"模式。算法将整体画面判定为"AI合成场景",连带着苹果树本身也被连坐。
「我们训练模型识别'不真实',却忘了定义什么是'真实'。」谷歌DeepMind研究员Murray Shanahan在NeurIPS(神经信息处理系统大会)的圆桌讨论中直言,「牛顿的苹果是真实的,我们的检测器也是真实的,但两者相遇时,真实本身成了需要仲裁的对象。」
目前,谷歌搜索的AI检测标签已改为更模糊的「可能包含合成内容」,且不再显示具体概率。但历史教师的那张截图仍在流传——黄色警告框里,牛顿的 wig(假发)被算法圈出,标注为"疑似AI生成区域"。
如果牛顿穿越到2024年,他会如何向谷歌证明那颗苹果真的砸中过自己?
热门跟贴