最近几天,一张让人心头一紧的照片在国外社交媒体上疯传。

照片里,成龙大哥浑身插满了管子,躺在病床上奄奄一息。

配文更是直接宣称这位陪伴我们几十年的功夫巨星因为常年拍动作戏落下病根,现在已经病危。

打开网易新闻 查看精彩图片

消息一出,全球粉丝都慌了神。

这么多年看着成龙拍戏受伤,大家心里都明白他身上确实留下不少伤病。

可这次传出的消息实在太突然,让人措手不及。

事情真相到底是什么?

成龙的身体状况究竟如何?

打开网易新闻 查看精彩图片

事情发酵得特别快。

11月初,国外几个主流社交平台突然出现一组照片。

照片拍摄角度看起来像是在医院病房里偷拍的,画面中一个看起来很像成龙的老人躺在病床上,脸色蜡黄,鼻子嘴巴上插着各种管子,看起来状况非常不好。

发布这些照片的账号还煞有介事地写了一大段文字,说成龙这些年拍戏太拼命,从头到脚没有一块骨头是完好的,现在终于撑不住了,已经病危住院。

打开网易新闻 查看精彩图片

消息传到国内社交平台后,评论区直接爆了。

有人说早就知道成龙身体不好,这么多年拍动作片没有替身,摔打滚爬全是真的来,能撑到现在已经很不容易。

还有人开始回忆成龙这些年拍戏受过的伤,什么头骨开裂、脊椎移位、鼻梁断裂、眼睛受伤,数都数不过来。

大家一边担心一边祈祷,希望这个消息是假的。

打开网易新闻 查看精彩图片

网友们的反应五花八门。

年纪大一点的粉丝说自己是看着成龙的电影长大的,从《醉拳》到《警察故事》,再到《尖峰时刻》,成龙陪伴了他们整个青春。

现在听到这个消息,心里真的很难受。

年轻一代虽然对成龙的老电影不太熟悉,但也知道这是个拿命在拍戏的真功夫演员,不像现在某些流量明星动不动就用替身,吊威亚都要抠图。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

拍摄的角度、光线、医院病房的布置,甚至连病床上那些医疗设备都显得特别专业。

很多人第一眼看到就信了,因为照片里那个人的五官轮廓确实很像成龙,特别是那个招牌的大鼻子和眼睛周围的皱纹。

传播速度快得惊人。

几个小时内,这些照片就从国外平台传到了国内各大社交媒体。

转发的人越来越多,评论区里有人哭着说不相信,有人发出以前成龙拍戏受伤的旧照片,还有人开始讨论成龙的遗产会怎么分配。

话题热度直线上升,相关讨论很快就冲上了热搜榜前几位。

造假的人很懂得怎么利用大众心理。

他们知道成龙这些年确实身体状况不太好,之前也有过因为旧伤复发住院的新闻。

选择在这个时间点发布这样的消息,再配上看起来很真实的照片,确实容易让人相信。

特别是对于那些不太了解AI技术的中老年粉丝来说,他们根本想不到现在的技术已经可以做出这么逼真的假照片。

打开网易新闻 查看精彩图片

就在大家议论纷纷的时候,11月11日这天,成龙突然在自己的社交平台账号上发布了一条消息。

他没有直接回应那些病危的传言,而是高高兴兴地宣布自己的新电影定档了,还配上了几张拍摄现场的照片。

照片里的成龙精神抖擞,正在片场指导拍摄工作,哪里有半点病危的样子。

这一波操作简直是教科书级别的辟谣。

打开网易新闻 查看精彩图片

成龙根本懒得去解释那些照片是假的,也不需要发什么声明澄清,就用最直接的方式告诉所有人:老子好着呢,还能继续拍电影。

消息一出,之前那些担心得要命的粉丝终于松了一口气,评论区瞬间变成了庆祝现场。

大家纷纷留言说被吓死了,还好成龙大哥身体没事。

新电影的消息发布得特别及时。

打开网易新闻 查看精彩图片

成龙在帖子里不仅晒出了拍摄花絮,还透露了电影的上映时间。

从照片和视频里可以看出来,虽然已经71岁了,但成龙的状态保持得相当不错。

他在片场依然亲力亲为,动作戏也还是尽量自己上,这种敬业精神确实让人佩服。

很多网友看到消息后开始反思,觉得自己之前太容易相信网上的消息了。

打开网易新闻 查看精彩图片

有人说以后看到这种突发新闻要先冷静一下,等等看当事人或者官方是否有回应,不要急着转发。

也有人开始质疑那些发布假照片的账号,要求平台封禁这些传播虚假信息的人。

打开网易新闻 查看精彩图片

成龙不是第一个被AI技术坑害的明星。

往前数几个月,类似的事情已经发生过好几起了。

最离谱的是跳水冠军全红婵,这个小姑娘才十几岁,就被人用AI技术冒充去直播带货。

造假的视频里,全红婵的脸看起来和本人一模一样,说话的口型、表情、动作都高度还原,要不是眼尖的网友发现直播间里的"全红婵"说话时有些不自然的地方,可能很多人都会上当。

打开网易新闻 查看精彩图片

央视主持人李梓萌也遭遇了同样的事情。

作为新闻主播,李梓萌的形象一直很正面,说话声音也很有辨识度。

骗子就是看中了这一点,用AI技术合成了她的脸和声音,在直播间里卖各种产品。

很多中老年观众看到"李梓萌"推荐的商品,想都不想就下单了,结果收到的东西质量差得离谱,根本不是直播里说的那样。

打开网易新闻 查看精彩图片

这些案例说明AI造假已经形成了一条产业链。

骗子们专门挑那些知名度高、形象好的公众人物下手,因为这些人的号召力强,容易取得观众信任。

他们用AI技术生成假照片、假视频,然后在各个平台传播,目的无非就是蹭热度、骗流量,甚至直接骗钱。

受害的明星们其实很无奈。

打开网易新闻 查看精彩图片

他们的形象被盗用,声誉受损,粉丝被骗,自己却很难维权。

法律对这块的监管还不够完善,抓到造假的人很难,即使抓到了处罚也不够重。

这就导致很多骗子有恃无恐,反正成本低收益高,被抓的概率又小,何乐而不为。

打开网易新闻 查看精彩图片

AI技术本身没有错。

这些年AI发展得特别快,在很多领域都带来了巨大的便利。

医疗诊断、教育辅导、工业生产、艺术创作,到处都能看到AI的身影。

合理使用的话,AI确实能提高效率,改善生活质量,推动社会进步。

打开网易新闻 查看精彩图片

问题在于,技术一旦被不法分子掌握,就会变成作恶的工具。

生成式AI特别容易被滥用。

现在网上随便找一下,就能找到很多AI换脸、AI合成声音的软件。

这些软件操作简单,普通人花点时间学习一下就能上手。

打开网易新闻 查看精彩图片

输入几张照片,调几个参数,就能生成以假乱真的图片或视频。

技术门槛越来越低,意味着任何人都可能成为造假者,这才是最可怕的地方。

普通人很难分辨真假。

专业人士或许能从图片的细节、视频的帧率、声音的波形中找出破绽,但对于大多数网民来说,这些技术活儿根本不懂。

打开网易新闻 查看精彩图片

他们看到照片觉得像,听到声音觉得对,就自然而然地相信了。

特别是在信息传播速度极快的今天,一条假消息可能在几个小时内就传遍全网,等到辟谣的时候,伤害已经造成了。

平台监管责任很重要。

各大社交媒体平台应该建立更完善的审核机制,对涉及公众人物的敏感信息要重点关注。

打开网易新闻 查看精彩图片

发现疑似AI造假的内容要及时处理,不能等到事情闹大了才去管。

还要建立快速辟谣通道,让被造假的当事人能够第一时间发声,减少谣言的传播范围。

打开网易新闻 查看精彩图片

这次事件给所有人上了一课。

很多网友表示以后看到突发新闻会更加谨慎,不会像以前那样看到什么就信什么。

特别是涉及名人去世、病危这类重大消息,一定要等官方确认或者当事人回应后再做判断。

轻易转发未经证实的消息,不仅是对当事人的不尊重,也可能成为谣言传播链条中的一环。

打开网易新闻 查看精彩图片

大家开始学习如何识别AI造假。

网上出现了很多教学帖子,教人们从哪些细节可以看出照片或视频是AI生成的。

比如仔细观察人物的眼神是否自然,手部动作是否协调,光影是否合理,背景是否有穿帮的地方。

这些识别方法虽然不能保证百分百准确,但至少能提高警惕性,不至于一看就信。

打开网易新闻 查看精彩图片

年轻人对这种事情的态度相对理性。

他们从小接触互联网,对网络信息的真假有一定的辨别能力。

看到成龙"病危"的消息后,很多年轻网友第一反应不是转发,而是去查证。

他们会去成龙的官方账号看看有没有更新,会搜索相关新闻看看有没有权威媒体报道,会在评论区提醒其他人不要轻信。

打开网易新闻 查看精彩图片

中老年人是最容易上当的群体。

他们对互联网了解不多,对新技术更是一知半解,看到消息就容易往心里去。

很多中老年粉丝看到成龙"病危"的照片后,心里着急得不行,赶紧转发给亲朋好友,结果帮着把谣言扩散出去了。

这次事件之后,不少年轻人开始教自己的父母长辈如何辨别网络信息,怎么查证消息真假,希望他们以后不要再被骗。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

AI造假的成本越来越低,惩罚力度却还是老样子。

现在很多国家对于AI生成的虚假信息都没有专门的法律条文,只能用一般的诽谤罪、侵犯肖像权之类的罪名来处理。

这些罪名的处罚力度有限,对造假者的震慑作用不大。

骗子们算了算账,发现就算被抓到,最多也就是罚点钱或者拘留几天,远远比不上造假带来的收益。

打开网易新闻 查看精彩图片

维权成本太高也是个大问题。

明星被AI造假后,想要维权得先找到造假的人,这本身就很难。

网络是匿名的,骗子们用的都是假账号,IP地址还可能在国外,根本查不到真实身份。

即使找到人了,打官司又是一个漫长的过程,要花大量的时间和精力。

打开网易新闻 查看精彩图片

很多明星忙着工作,根本没时间去打这种官司,最后只能不了了之。

跨国合作难度大。

很多AI造假的内容最先在国外平台出现,然后才传到国内。

国外平台的监管标准和国内不一样,有些平台对这类内容睁一只眼闭一只眼,只要不违反他们的社区规则就不管。

打开网易新闻 查看精彩图片

要让这些平台删除内容或者提供造假者信息,需要通过国际司法协助,流程复杂时间长,等办下来黄花菜都凉了。

立法速度需要加快。

针对AI造假这个新问题,法律必须尽快跟上。

应该制定专门的条款,明确规定使用AI技术制造虚假信息、侵犯他人肖像权和名誉权的行为属于犯罪,加大处罚力度。

打开网易新闻 查看精彩图片

造假一次就要付出惨痛代价,才能真正起到威慑作用。

同时要简化受害者的维权流程,让他们能够快速有效地保护自己的合法权益。

成龙这次被AI造假的经历给我们敲响了警钟。

网络时代信息传播速度快,但真假难辨。

看到任何让人震惊的消息都不要急着相信和转发,先冷静下来查证一下。

打开网易新闻 查看精彩图片

明星们用多年积累的声誉很容易就被一张假照片毁掉,普通人也可能成为AI造假的受害者。

技术发展是好事,关键是要用在正道上。

希望相关部门能加强监管,完善法律,让那些躲在屏幕后面作恶的人受到应有的惩罚。

同时我们每个人都要提高警惕,不信谣不传谣,共同维护一个干净健康的网络环境。