打开网易新闻 查看精彩图片

近日,甘肃省平凉市公安局网安大队侦破一起利用AI人工智能技术炮制虚假不实信息的案件。警方通过对“今晨甘肃一火车撞上修路工人致9人死亡”的虚假文章调查后,发现犯罪嫌疑人通过人工智能软件将搜集到的新闻要素修改编辑后,使用某软件上传至其购买的百家号上非法获利(据每日甘肃网5月8日报道)。

“某地取消机动车尾号限行”“这里发生重大伤亡事故”“再次发现新物种!”如今,在社交媒体爆炸式信息冲击下,花样百变的新发现总是能突出重围,博取眼球,然而这些或令人震惊或喜出望外的“新闻”,却有不少是虚晃一枪。近年来,伴随着人工智能技术的进步,AI造假之风却愈演愈烈。AI“一键换脸”,一位无关人士可以变成当事人,AI“视频合成”,事故现场无中生有。这些不法分子通过AI伪造假新闻、假人物、假现场,冠以突发新闻、科普内容等名号在互联网广泛传播,吸睛牟利,不仅制造谣言、混淆视听,更扰乱网络传播秩序,让“眼见不再为实”的当下,掀起更大的社会信任恐慌。

我国《互联网信息服务深度合成管理规定》明确,深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。

“造谣一张嘴,辟谣跑断腿”,换脸、换声等AI造假乱象小到恶意抹黑他人名誉,大至编造灾害信息制造社会恐慌,不仅大大增加科普辟谣的难度,更动摇了新闻真实性根基,容易引发舆情危机,影响政府公信力。一旦这些假新闻被大量传播浏览,造成网上公共秩序严重混乱,还会触犯我国刑法,涉嫌寻衅滋事罪,可谓是后患无穷。

治理AI造假乱象,首先必须厘清AI技术应用的底线和红线,绝不能纵容不法分子利用其侵害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。其次,AI技术的提供者必须守土有责,从技术源头上加强数据和算法管理,强化对合成技术使用者真实身份信息的认证和核查,避免不法者滥用技术牟利,相关监管部门也要加大监管力度,发现违法乱象,依法依规严惩。

另外,社交媒体、网站等内容发布平台要保持内容合规意识,加强对用户账号真实信息的核查,杜绝“僵尸号”账号买卖。加大用户内容巡查监管频次,提高检测伪造行为的技术水平,及时甄别违法违规合成内容,避免给虚假信息引流,造成更大的传谣风险。

AI深度合成技术在数字仿真、沉浸式拟真等创新场景应用前景广阔,理应成为内容生产的好帮手,而非假新闻的策源地,更不是违法犯罪的推手。从AI造假乱象中应该看到,我们在享受技术高速迭代红利的同时,应该有更加深刻的伦理道德考量,不让AI成为乌龙事件和反转新闻的制造机,守护风清气正的网络生态,是每一个互联网用户的应有之责。

(来源:检察日报·法治新闻版 作者:何慧敏)