如果你最近关注汽车圈,大概率会被一连串离谱新闻搞懵:
雷军在直播间卖力推销问界 M9,余承东转头帮小米卖 SU7。场面魔幻到让人怀疑:现在的车企,已经卷到魔怔了吗?
其实这些画面,现实中一秒钟都没发生过,全是 AI 生成的。
前段时间,OpenAI 发布 ChatGPT Image 2,一夜之间把“AI 生图”推到了普通人无法分辨的程度。文字不乱码了、光影自然了、细节逼真了,输入一句话,几秒钟就能造出一张足以骗过大部分人的“现场截图”。
先被冲垮的,是一向以严谨、精密、可信著称的汽车行业。这不,更离谱的来了——库克穿着小米工服,宣布出任小米汽车 CEO。截图逼真到冲上热搜,公关紧急辟谣。
汽车圈的混乱,不过是整个互联网信任崩塌的前哨战。
当造假成本趋近于零,当辟谣永远跑不赢造谣,“有图有真相”就变成了一句笑话,我们正在进入一个眼见为实彻底死亡的时代。
汽车圈被 AI 骗惨了
AI 造假为啥先在汽车圈炸开了锅?道理很简单,因为这行当天生就是 AI 的“天选之地”。
你想啊,汽车行业有什么?有高管,比如雷总和余总,天天把 360 度无死角的脸部数据喂给 AI;有发布会,各种 PPT 模板,AI 直接复制粘贴了去;还有谍照,本来就糊,AI 生成个更糊的,谁分得清?
加上车圈一群狂热的粉丝,简直就是为 AI 量身定制的大型真人实验场。
岚图董事长卢放大概最有发言权。
前阵子一张“岚图发布会”的图在各大社群疯传:卢放站在银灰色的泰山 X8 旁边,身后大屏上赫然写着“男人的衣柜”,后备厢里晾衣杆挂满衬衫,两个圆脸寸头的男士从车里探出身来,笑得那叫一个灿烂。
评论区都在问:“岚图这场发布会是不是在成都开的?”
真相是什么呢?发布会是在北京开的,原图那两位“圆脸寸头男士”,是篮球运动员孙悦和相声演员孙越。
网友把原图丢给 AI,加了一句描述,1 分钟,一张病毒级传播的图片就诞生了。
卢放后来不得不亲自出来辟谣,说图片“其实是假的,是恶搞 P 图”。
但他的措辞,温和得近乎卑微,“欢迎玩出更多创意,但一定不要恶俗”。
翻译一下就是:你们随便 P,我惹不起。
这就是车企现在的真实处境。阿维塔法务部发声明说 AI 图片“严重侵害品牌声誉”,小米公关经理紧急辟谣“库克入职”是 AI 伪造,小鹏法务部出来澄清 AI 生成的“衣着暴露模特”视频是假的。
车企的公关部和法务部,被 AI 搞得工作量翻倍,成了全天候的打假办。
但更阴损的是那些伪装成谍照的 AI 图片。
比如那张所谓“小鹏 GX 实车内饰”的谍照,乍一看就是停车场里偷拍的,但后视镜大小异常、中控台线条断裂错位,全是 AI 典型漏洞。
这些细枝末节的破绽,懂行的人能看出来,但普通消费者呢?一张假谍照,就能带偏舆论、影响订单、干扰竞品判断,甚至引发不必要的猜测。
讽刺的是,当假图满天飞,真图也开始被怀疑了。
尚界 Z7 的冬测图发布后,被网友拿着放大镜逐帧分析,认为是 AI 生成的。尚界不得不出来澄清:冬测图均为实拍,可依旧无法消除质疑。
问界、小鹏也多次遭遇“真图被当成假图审”窘境。
最荒诞的一幕,就发生在 GPT Image 2 上线当天:有人意外泄露了平台内部界面截图,结果网友第一反应是“这也是 AI 合成的恶搞”,连真实信息都没人相信了。
这就是 AI 造假的阴毒之处——不需要让所有人都信,却让所有人开始怀疑。
AI 正在伪造整个世界
GPT Image 2 带来的不是一次普通升级,而是信任底层逻辑的颠覆。
OpenAI CEO 阿尔特曼直言,这相当于从 GPT-3 直接跳到 GPT-5,解决了过去 AI 生图最致命的两个问题:文字渲染准确率飙升至 99%,中文不再乱码;自带“思考模式”,先理解场景、规划布局、复核逻辑,再生成图片,空间崩坏、细节违和的情况大幅减少。
以前造假需要专业 PS 技术、时间和金钱,门槛极高;现在用 GPT Image 2 造假,只需要一句话,加上 4K 画质、3 秒出图、默认不带任何 AI 水印,等于给每个人发了一把“无迹可寻的造假工具”。
于是,混乱迅速从汽车圈蔓延到整个互联网。
有人伪造“西山居解散”的媒体公告,细节逼真、水印齐全,直接影响金山软件股价。
有人生成伪造身份证、营业执照、转账记录、学术论文、医生处方,字体、排版、公章一应俱全,成为诈骗分子的新工具。
电商圈更是重灾区。有人用 AI 生成商品霉斑、破洞、破损图,恶意申请“仅退款”,商家发货前留证也难维权,已经形成灰色产业链。
一个上海玩偶店主用 AI 检测工具分析,确认顾客的“瑕疵图”是 AI 合成的,结果呢?平台同意了买家的退款申请,拒绝了卖家申诉。
店主气得跳脚:“从业十多年,第一次遇到这种事。”
旅游圈也没逃过。
五一假期前,有民宿商家用 AI 画出“仙境小院”“溯溪秘境”,实景差距巨大,却靠虚假图片收割流量,用户种草变踩坑。
造假成本无限趋近于零,作恶门槛彻底消失,带来的结果只有一个:互联网变成了黑暗森林。
但老狐觉得最细思极恐的,不是 AI 造假图,而是 AI 在伪造我们的记忆。
最近一组“90年代小卖部”的 AI 图片刷屏:老式货架、健力宝、AD 钙奶、大大泡泡糖,连照片里的红眼瑕疵都还原了。
无数人转发“泪目”“这就是我的童年”。
直到有人发现,照片里某个少年桌上的可乐罐,是2003年才上市的包装。
你看,AI 生成的童年照,比你家相册里那张糊掉的老照片更有温度,更像你记忆中的样子。
你明知道是假的,却觉得“对,就是这种感觉”。
这才是最可怕的——AI 不是在伪造信息,而是在伪造感觉。
当你连自己的记忆都不敢相信的时候,你失去的不是辨别真假的能力,而是相信真实的能力本身。
眼见不为实,我们还能相信什么?
几百万年来,视觉是人类获取真实世界信息的最高优先级通道。所谓“有图有真相”,“看见”等于“证据”,这是人类文明最底层的认知契约。
但现在,AI 正在系统性地摧毁这个契约。
以前我们判断真假,靠的是内容验证:看像素、看光影、看细节。
现在呢?AI 生成的图片在这些维度上已经和真实照片没有区别了。
那怎么办?我们只能转向动机判断:这张图是谁发的?他为什么要发?他有什么目的?
这意味着什么?意味着真假判断从“客观验证”滑向了“社会信任”。
而信任,从来都是最脆弱的东西。
还有一个更阴暗的可能:怀疑主义陷阱。
当 AI 造假技术足够强大,任何真实的影像证据都可以被当事人以“这是 AI 生成的”为由否认。
最终结果是,无论真的还是假的,人们都不相信了。要么放弃判断,交给权威机构;要么只相信自己愿意相信的,彻底回到部落化时代。
出路在哪?
老狐觉得,指望技术公司自我约束基本是痴人说梦。OpenAI 一边说着“我们重视安全”,一边把 GPT-Image 2 的 API 开放给所有人,普通用户一天能生成上百张假图。
其实 AI 生图并非洪水猛兽,能让设计师 30 秒出方案,让创作者低成本实现创意,让工业设计效率翻倍。但当它被用来造谣、诈骗、毁谤、收割流量时,就是一把刺向信任的刀。
所以作为普通人的我们,得培养一种新的媒介素养:默认怀疑。
看到任何截图、照片、现场视频,第一反应不是转发,而是溯源。
官方渠道核实、多源信息比对、细节放大检查,应该成为基本操作。
技术永远在向前走,我们不可能退回没有 AI 的时代。但我们可以守住自己的认知,不让 AI 变成造谣的工具、诈骗的武器、收割流量的帮凶;不让虚假信息吞噬信任,不让混沌取代真实。
但这够吗?我觉得不够。
因为 AI 进化的速度,远超普通人学习辨假的速度。
三年前 AI 还不会拼汉字,不会画手指,生成的人物一股“伪人味”。三年后的今天,AI 造假已经能骗过绝大多数人的眼睛。
再过三年呢?
我不敢想。
编辑:ZXS
热门跟贴