近几日,几张图片出现在互联网上。图中是一架采用解放军深绿色迷彩卡-52直升机,背景还能看到某处基地的建筑。许多人以这几张图片作为陆军航空兵已经开始接收卡-52的证据并大肆传播。不过部分网友经过仔细观察,发现这几张图无一例外是由AI生成的虚假图片。
所谓陆军航空兵卡-52照片
在这几张图片中,最“具备说服力”的就是这张。乍一看,这张图包含了照相机和屏幕上显示的参数和设置,似乎是当事人直接用手机拍摄相机屏幕,给人一种非常真实的感觉。可实际上,这张图包含大量漏洞。这架卡-52在起落架放下的状态时,起落架舱内依然还能看见轮胎,它的光电瞄准系统也直接“失踪”……更重要的是,右上角显示的相机电量还有68%,但旁边可视化的剩余电量已经掉到了最后一格,明显矛盾。很显然,这都是AI在生成图片时,出现的失真情况。但不可否认的是,这张图的大部分细节都很完善,整体光影效果也几乎可以做到以假乱真,如果不仔细观察,确实很难发现破绽。
事实上,这样AI生成的虚假图像在近些年的互联网上层出不穷,军情战报领域更是重灾区。在中东地区的大小冲突中,AI生成的图像和视频几乎占领了互联网。一些社交平台的管理人员曾抱怨说,在“史诗愤怒”行动开始后的几天里,平台上超过90%的“战况”都是由AI生成的。这其中有些是出现比例失调或“六指类人”等元素的低劣伪造,有些却精心伪装,外行人难辨真假,内行人需要反复观察才能发现破绽。伪造者反复调试AI模型生成虚假的内容,抹去水印投放在互联网上,再经由一些媒体或个人有意无意地转发,这些虚假的图片和视频就会如病毒般扩散。
一些AI生成的图片(娱乐向):
马杜罗抓捕美军
加装防护网的卡-52
解放军的高达
伊朗“飞毯空军”
由AI制作的虚假图像和视频种类繁多,但是有关军事的内容却总会引起更多的热议,这其实是伪造者利用了军事图像稀缺性的特点。以中东局势为例,过去冲突地区往往高度封闭且信息受控,外界往往需要等待数个小时甚至数天时间才能得到现场图像或视频。这些冲突也总能成为国际热点,引发媒体和群众的关注,带来对视觉证据的强烈渴求。毕竟总是说“眼见为实”,有照片有视频似乎就能成为鉴定真伪的“绝对证据”。而在AI软件出现后,图片和视频的造假成本被显著降低,真实度较高的图片或短视频,通常只需要输入关键词就能生成,且耗时只有几分钟甚至几秒钟。于是,一些人出于对流量的追求,开始用AI生成虚假的图片和视频,达到博人眼球的目的。而危害性更大的,是一些势力开始将AI作为认知作战的“廉价弹药”,对公众进行刻意的误导。
需要引起警惕的是,AI生成内容带来的问题不再局限于普通社交媒体用户被误导,其甚至已经挑战了专业新闻编辑的核查能力。互联网上的军情信息也不再追求真实和客观,被海量的视觉奇观所掩盖。在过去的几个月里,无论美国、以色列还是伊朗都在从官方层面发布大量AI伪造的图像和视频,一场由AI生成的舆论战正在互联网上展开。这不仅会导致群众受到误导,也会让一些原本真实的内容被打上AI的标签,最终反而导致真相被虚假信息掩盖。
各种林肯号被击沉的图像
AI生成的伊朗俘虏美军飞行员
被德州州长阿博特转发的AI生成图片
网传内塔尼亚胡被炸死后,为了证明自己没有死,曾经上传过一段视频表明自己仍然活着。但网友发现视频中存在许多破绽,认为这段视频是AI生成的!
当然,AI软件和社交平台也在采取措施限制AI图像和视频的生成和传播。目前最主流的手段,是在图像和视频内加入肉眼不可见的水印,社交平台也会扫描这些文件,识别隐藏的水印或检测AI特征,自动加入“AI生成”的提示标签。一些社交平台也计划修改AI作品的推送机制和利润标准,“劝退”试图用AI生成虚假内容进行敛财的投机者。当然,专家表示即便采取诸多限制措施,目前这个问题依然没有简单的解决方案。澳大利亚昆士兰理工大学数字媒体专家蒂莫西·格雷厄姆说:“问题的严重性确实令人担忧……过去,制作视频需要专业知识,而现在只需几分钟就能用AI工具完成。制作以假乱真的视频几乎已经没有门槛。而更深层问题在于,以互动为导向的变现机制与准确信息之间存在根本性矛盾,目前没有平台能完全化解这个矛盾,或许永远无法化解。”
教你识破AI
今天,随着AI模型的升级换代,大部分主流模型的生成效果都已经非常接近现实,“一眼假”的低级伪造内容会越来越少。不过,我们依然可以通过了解一些当前AI无法满足的特性,来识别图像和视频的真假。
01
寻找时间和空间上的“裂隙”
虽然如今的AI在细节刻画上已经表现得非常完美,但在处理大空间或时间变换问题时依然存在明显不足。比如AI图像中,远处的建筑和人群会被刻意模糊处理,或处于画面边缘的物体会缺失细节。而在AI视频中,时间这个维度是AI目前最大的软肋。许多AI视频里的动态物体可能随着时间改变外形,或者突然消失。
02
认真看细节
在添加了参考图的情况下,AI可以轻松保证外观的一致性,但在细节处理上往往容易疏忽。之前提到的卡-52图片就是一个例子:多出来的轮胎,消失的光电瞄准系统……而当同一个物体改变角度时,它的细节也会被AI“不小心”改变。“解放军卡-52”这一系列图片中,飞机的编号位置就在不断改变。AI也很难理解复杂的物理连接,比如AI生成的战斗机视频里,导弹直接“长”在机翼上。
03
物理规律上的漏洞
目前,AI很难模拟真实的流体力学。观察水滴溅落、燃烧的火焰或浓烟的扩散……AI的能力目前很难模拟出这些元素的质感和扩散情况,画面通常会存在诡异的波动或模糊。此外,AI通常会将物体的质量设定的过于轻盈,无论是人还是坦克看起来都轻飘飘的,有一种贴图在地面上滑动的感觉。
04
寻找逻辑漏洞
为了创造博人眼球的话题和场面,一些AI图像或者视频往往存在一些不合逻辑的问题。比如“美军航母被击沉”的报道中,包括企业级、埃塞克斯级、小鹰级等一众美军退役航母“秽土转生”,在波斯湾又挨了一轮导弹。或者一架朝鲜客机出现在韩国机场,插着美国国旗的俄军坦克等等……
这张所谓“被打击前后对比图”中,两张图里一些建筑的位置和造型发生了改变
巨型F-35
今天,AI生成的图像和视频早已跨越了单纯的视觉娱乐,我们急需建立一套个人的“认知防火墙”。要记住,最危险的不是AI让图像和视频也能说谎,而是人们失去了对真实的敬畏与追寻。保持警惕,别让自己成为他人算力下的廉价燃料。
3月2日,伊朗南部一所小学遭遇了美军的空袭,造成了上百名儿童死亡。图为当地为遇难者挖掘的坟墓,然而这张图片却被许多人认为是AI伪造的。
作者/肉鸽鸽
编辑/郑逸泽
审核/老虎、武瑾媛
战斗机主题增刊预售开启!
5月7日 19-21点
直播五折起售!
78
78
风上风云|云端故事
热门跟贴