是的,现实现在新且改进,但它不再真实;成本和价值都被贬损了。这个转变发生在人工智能跨越了‘无法区分’的视频生成门槛的那一刻。

传统的老派现实总是存在一些弱点,任何有批判性思维的人都能理解。例如,1915年的一部故事片,D.W. 格里菲斯的民族的诞生,完全扭曲了真相,颂扬三K党为英雄,而不是揭露他们是那些心如冰冷的暴力罪犯,他们恐吓、绑架、消失和谋杀那些他们不喜欢的人。

但直到最近,创造看起来高度真实的假视频的能力仅限于大型电影制片厂,有时也包括政府。这需要预算、团队、定制设备和受控的拍摄场地。

这种权力现在掌握在每一个拥有智能手机的人手中。视觉操控的垄断已经消失。它已经实现了民主化、无监管,几乎无法被检测到。

视频一直是我们对现实最接近的反映。那个时代已经过去。我们发现自己被迫采取现代的‘三只聪明的猴子’的回避姿态,依靠故意的无知来应对这一混乱。

今天,AI模型可以生成‘真实’的身体摄像头录像、监控摄像头视频流或历史档案,并且光线和物理效果都很完美。这些工具并不是在模仿事件,而是完美地伪造事件。

一次点击就能定罪或洗清任何人。罪与无罪已经不重要了。真实和虚假已经颠倒了。

一旦怀疑无处不在,证据就会崩溃。 法庭、媒体、选举、股市,甚至历史本身都受到威胁。

欺诈、勒索、虚假灾难、选举操控、历史修正和大规模恐慌,现在只需轻轻一按。信任已经崩溃。真相现在变得可以谈判了。

发展速度正在飞速提升。仅在2025年上半年,就有多个AI视频工具能完美模拟现实。

谷歌推出了‘纳米香蕉视频’,将其超现实图像生成器和先进的视频合成技术结合,制作出角色一致的高质量多场景视频。

谷歌还发布了SynthID来检测其自身模型生成的图像,但“否”的结果并没有实际意义——水印可能被破坏,或者图像可能来自Stable Diffusion或DALL-E。这只提供了一种虚假的安全感。

与此同时,Higgsfield在2025年5月发布了FLUX.1 Kontext,这是一款具有上下文感知功能的LTX工作室工具,可以从文本、草图或参考图像生成完整的生产就绪视觉效果。

这些超现实工具并没有释放创造力——它们解构了现实。

现有保护措施

现有保护措施

  • 未经同意的亲密深度伪造——在许多美国州是非法的。
  • 未经授权使用肖像或声音——在一些州(例如,田纳西州的ELVIS法案)中存在相关法律。
  • 儿童剥削(真实/人工)内容——严格非法。
  • 选举干预/政治深度伪造——在某些司法管辖区有有限禁令。
主要缺口

主要缺口

  • 没有一部综合法律来覆盖大多数AI生成的假视频。
  • 非色情、非政治的假视频通常是完全合法的。
  • 没有强制标记或认证标准。
  • 在跨境或匿名平台上执法几乎是不可能的。
  • 法律的发展远远慢于技术。
你可以做什么

你可以做什么

  • 不要假设你在网上看到的任何东西是真实如果它让你震惊或愤怒,把它当作警告并进行验证。
  • 学习基本的AI素养了解这些工具能做什么,以及为什么现实主义不一定等于真相。
  • 向政府施压,要求采取行动。要求强制水印、真正的执法和对恶意合成媒体的惩罚。
  • 放慢脚步。相信你熟悉的人,而不是陌生人发来的随机视频。
  • 认识到威胁政治操控、金融欺诈、历史修正、大规模恐慌、敲诈、证据伪造,以及信任本身的崩溃。

现实并没有消失,但它不再自我保护。如果我们希望真相能够存活下来,就必须有意识地去保护它。

热门话题

热门话题

利用人工智能提升档案访问

作者 写道:“世界各地的档案和记录库保存着大量纸质文件、照片和其他媒体,这些内容在数字化后并不容易被搜索或访问。从历史手稿到打字记录,这些材料大多只能通过实地浏览或阅读来获取,这是一项劳动密集型的任务。如今,人工智能(AI)提供了弥合这一差距的新方法。”

人工智能和深度伪造的崛起威胁民主:法律学者韦斯·亨里克森展示前进之路

人工智能和深度伪造的崛起威胁民主:法律学者韦斯·亨里克森展示前进之路

来自 堪萨斯大学出版社:“我们正进入一个真相变得可协商,事实受到质疑,现实与虚构的界限变得模糊的时代,这种情况威胁着个人安全和民主稳定。这就是为什么韦斯·亨里克森教授的新书 我们信任欺诈,更像是一本关于民主生存的手册,而不是一篇学术论文。”

可能导致世界末日的人工智能提示

可能导致世界末日的人工智能提示

作者 写道:“当核裂变在20世纪30年代末被发现时,物理学家几个月内就得出结论,它可以用来制造炸弹。流行病学家普遍认为大流行的可能性,天体物理学家也同意小行星撞击的风险。但对于人工智能的危险,经过十年的激烈辩论,仍然没有这样的共识。当一半的领域无法就哪些风险是真实的达成一致时,我们该如何反应?”

深度伪造与认知危机

深度伪造与认知危机

来自 联合国教科文组织:“随着深度伪造技术模糊了现实,教育必须超越检测,教导学生如何在真相、知识和人工智能介导的不确定性中导航。”

印度提议严格规定标记人工智能内容以应对日益增长的风险

印度提议严格规定标记人工智能内容以应对日益增长的风险

作者 写道:“印度政府[在十月]提议,人工智能和社交媒体公司应明确标记AI生成的内容,以应对深度伪造和虚假信息的扩散,这一提议受到欧盟和中国类似措施的启发。”

我们种族歧视、可怕的深度伪造未来已经来临

我们种族歧视、可怕的深度伪造未来已经来临

来自 国家:“一个白人首席执行官盗窃的伪造病毒视频是一回事,但如果一个人工智能生成的视频让一名黑人嫌疑人受到指控,那又会怎样呢?这一切即将发生,而我们却毫无准备。”

加州大学河滨分校的科学家们开发了一种检测假视频的工具

加州大学河滨分校的科学家们开发了一种检测假视频的工具

作者 提到:“在一个视频被操纵可以传播虚假信息、欺凌他人和煽动伤害的时代,加州大学河滨分校的研究人员研发了一个强大的新系统来揭穿这些伪造视频。电气和计算机工程教授阿米特·罗伊-乔杜里和博士候选人罗希特·昆杜,均来自UCR的马兰和罗丝玛丽·博恩斯工程学院,与谷歌科学家合作开发了一种人工智能模型,能够检测视频篡改——即使这些操纵的手法远远超出了简单的面部交换和语音修改。”

‘深度伪造悖论’可能会动摇司法系统

‘深度伪造悖论’可能会动摇司法系统

作者 提到:“‘深度伪造悖论’——由于深度伪造技术的存在,视频证据的信任度下降——对建立在‘眼见为实’这一假设基础上的司法系统提出了挑战。”