打开网易新闻 查看精彩图片

近日,文生视频模型Sora的推出引起广泛关注。人工智能技术快速发展,其潜在的风险也随之出现,真假的界限似乎变得更加模糊。

网络上庞杂的信息里,哪些是真,哪些是假?现在的AI让诈骗手段越发高明,但同样人工智能技术也可以成为检测手段,两股力量的博弈如何实现?一同走进人工智能实验室,“鉴证真假”↓↓↓

有图有视频,就有真相吗?

“欢迎来到我们搭建的一个人工智能实验室,这是我稍早前跟同事的视频通话……”

在人工智能实验室,总台记者“王世玉”展示了一段自己和同事的视频通话,聊天有来有往。“王世玉”还展示了自己刚学的俄语、德语、法语等。

然而让人没想到的是,视频中的形象是人工智能合成的,人工智能替换了记者的脸,并通过大模型训练模拟出跟王世玉相似的声音,然后用她的身份做了这个展示。

人工智能不仅可以合成人的形象,而且在现实生活中,它还能够对谣言的传播起到关键作用。

前一段时间,湖北发生了冻雨,网上流传的一张图片显示大量汽车拥堵在高速路上。中科睿鉴深度伪造检测专家葛星宇表示,这张图是由AI生成的,AI可以把很多抽象的概念具象化地展示在观众面前,且形式非常夸张,会对观众产生一些冲击,使其变得更加可信。

打开网易新闻 查看精彩图片

据了解,AI不仅仅能够捕捉用户的心理预期,还能针对性释放出一些部分真实的信息,进一步混淆视听:

  • 以湖北冻雨为例,大数据通过分析去年1月至今,应急管理部四级以上响应的事件,其中有近70%的突发事件都伴有谣言产生,三级以上响应的甚至达到100%。突发情况严重,出现谣言的频率就越高
  • 通过分析今年以来的几次突发事件,谣言的产生手段从过去的图片拼接发展到了利用大模型生成文字信息和图片视频

如何分辨AI视频与实拍视频?

此前,一个跨国公司的财务人员收到了一封邮件,是他所在公司的英国总部,邀请他参加一场涉密会议。加入之后,眼前的面孔果然十分熟悉。

打开网易新闻 查看精彩图片

香港特区政府警务处网络安全及科技罪案调查科署理高级警司 陈纯青:诈骗人员利用英国公司的各个职员在网上公开的视频片段,配合后期人工智能生成技术、换声技术,配合预先录制的对白,在线上会议里播放,播放的过程中就向这位报案人做出转账的指示。

如今,人工智能技术同样也可以成为检测手段。总台记者王世玉将AI制作的视频和真实拍摄的视频都录入实时鉴别系统,四十多个后台模型开始了实时解析。“通过检测,人工智能生成的视频判定为假,包括Sora生成的视频也同样可以鉴定出来。”

打开网易新闻 查看精彩图片

葛星宇介绍,光影是一个很重要的指标,当光源打在一片环境里面,人对于光的反射结果与环境和光影反射的结果是一样的。当屏幕开始抖动,无论是人在动还是背景的图像在动,它们的运动轨迹都是一样的。

如何更好地去伪存真?总台记者王世玉表示,在视频过程中,让对方遮挡一下面部,就会因为算法不够精确而出现破绽。而未来,这些鉴别软件也会嵌入手机系统进行自动防护,提示真伪信息。

如何在规范中发展人工智能技术?

人工智能技术本身并没有好坏之分,如何让它被更好地利用,是当前在规范中发展的重中之重。中国电信研究院战略发展研究所所长饶少阳介绍,输出的内容在真正呈现给用户之前,可以做一些监管控制,如果是AI生成的,那就要打上相应的标志

2023年1月,我国《互联网信息服务深度合成管理规定》出台;8月,《生成式人工智能服务管理暂行办法》正式施行;10月,我国率先发布《全球人工智能治理倡议》;同月,联合国成立“人工智能高级别咨询机构”;11月,全球人工智能安全峰会发布《布莱奇利宣言》。

当前,在人工智能治理水平方面,从率先提出治理倡议,到跻身全球治理的第一梯队,中国方案不断为人工智能的安全贡献智慧。

来源:央视新闻微信公众号