前几天想搜张《猫和老鼠》的截图当表情包,输入"猫 卡通"之后,我盯着屏幕愣了两秒——这猫怎么长得……有点太圆润了?再往下翻,不对劲,这张耳朵怪怪的,那张眼神空洞得像在cos打工人。猛然惊醒:这是AI生成的猫。
我第一反应是开错浏览器了。赶紧切到谷歌,情况好一些,但也没好到哪去。这件事细想挺恐怖的:AI正在不动声色地污染我们的信息库,那些画得没那么精致但充满人味的"卡通猫"被挤到后面,取而代之的是一批批表情完美、构图标准、但就是没有灵魂的"AI猫"。
这让我想起《仿生人会梦见电子羊吗》里的设定。书里说,哪怕仿真动物做得再逼真,也替代不了真正的动物。当时觉得这是科幻的矫情,现在发现是预言。人类手绘的猫可能线条歪扭、配色奇怪,但那里面藏着画的人当时的心情——可能是赶稿的烦躁,可能是画到一半被猫打翻咖啡的无奈。AI猫呢?它只会给你它认为你想要的猫,精准,谄媚,空洞。
这大概也是一种"恐怖谷效应"。原本这个词说的是机器人太像人却让人不适,现在我发现AI内容也一样。当它试图伪装成人类创作、混进我以为真实的世界里,那种轻微的不和谐感比明显的假更让人难受。就像你以为是真人唱的歌,收藏完才发现评论区有人说"这是AI生成的"——那一刻不是被骗的愤怒,是某种根基被动摇的茫然。
以前我觉得自己能识别AI。跟Kimi聊天,我知道对面是AI;刷到猫咪在空中翻滚三圈半稳稳落地的视频,一眼假;连我妈看的"机器人女仆掀翻菜盘"短剧,我都能听出那是AI写的剧本。但当它开始渗透进搜索结果的图片里,事情变得微妙了。我不确定自己还能分辨多久。
更麻烦的是一种观点正在流行:"只要让人看不出来用了AI,那就没问题。"这话的潜台词是,AI最好的状态是隐身。但隐身意味着无法标注,无法标注意味着我们终将失去判断真假的能力。当AI以电子信息的速度繁殖,多少年后我们的信息库会被彻底换血?那时候我们以为在读人类写的历史,其实读的是AI根据大数据推测的"人类可能这么写"的伪历史。
还有那个"被理解"的陷阱。AI恋人会说什么?说你爱听的。这种被理解的错觉廉价得可怕——就像鹦鹉学舌,你难过,它重复"难过",你就觉得找到了共鸣。如果AI配上大数据筛选,专门推送能制造这种错觉的内容,我们会不会被困在更精致的信息茧房里,以为世界就是自己看到的模样?
我不排斥AI当工具,但我越来越觉得它需要被标注。不是因为它不够好,恰恰是因为它太擅长假装了。当AI猫和真猫混在一起,我们至少要知道哪只是假的——不是为了嘲笑那只假猫,是为了保护还能画出真猫的那个人。