作者:吾道南来(资深媒体人)

来源:“青年记者杂志”微信公众号

打开网易新闻 查看精彩图片

导 读 在全媒体报道的制作中,可适度合理使用人工智能,让新闻的表达更加清晰、生动形象。只要处理合乎规范,而且具有合理的真实性,就不属于新闻造假的范畴。

利用人工智能进行新闻内容生产,比想象的还要快。从2月26日央视发布《千秋诗颂》开始,近期广电机构密集发布了13部人工智能作品。4月3日,央视新闻用人工智能作图来解释“强对流天气”。还有一些使用人工智能“复活”等技术,如2023年清明节有媒体利用人工智能对英烈的老照片进行修复和“复活”,而且照片中的人物能说话、眼球能转动,与用户进行互动,用户可祭奠英烈和献花。

新闻内容的生产会越来越多地利用人工智能,这样的作品是否违背新闻的真实性?能参评中国新闻奖吗?

新闻是对新近发生的事实的报道,真实是新闻的生命。真实性原则是我们始终应该恪守的。笔者认为,利用人工智能辅助新闻内容生产,要把握好以下三个原则。

一是整体真实性原则。早在2017年,人民日报客户端的互动H5《快看呐!这是我的军装照》借助人脸关键点定位等人工智能技术,用户上传图片,就可生成自己的军装照,体验穿军装,圆军旅梦。这一作品的浏览量突破10亿人次,体现了建军90周年之际广大人民群众爱国爱军的情感。这一作品不违背整体真实性,后来获得了第28届中国新闻奖一等奖。同样,上述清明祭英烈的融合报道,虽然使用了人工智能技术,但广大用户祭奠英烈这一主体事实是真实的,也不违背新闻的真实性原则。

二是标注原则。使用人工智能技术一定要标注。欧洲议会前不久正式通过的欧盟《人工智能法案》规定:“人工智能生成的涉及现有人物、地点或事件的深度伪造图片、视频或音频,必须被标记为人为操作。”我国2023年1月10日起施行的《互联网信息服务深度合成管理规定》第十六、十七、十八条也要求平台在智能对话、合成人声、人脸生成等服务中对合成物进行显著标识。为什么要标注?就是提醒用户,这部分内容不是客观真实反映世界的。

三是慎重适度原则。新闻作品中尽量不要使用“深度伪造”技术,必要时才使用。如果在新闻作品中广泛使用“深度伪造”技术,很容易让人们对事件的真伪感到困惑,可能直接威胁媒体的公信力。正如英国剑桥大学生成式人工智能专家亨利•艾德尔所说的,“人工智能‘深度伪造’的激增,将是最大的威胁”,深度伪造会造成公众信任的瓦解。

世界经济论坛的最新调查发现,人工智能的“创作”导致民众对权威机构的信任下滑。其中援引的英国牛津大学路透新闻研究所发布的《2023年数字新闻报告》称,只有40%的受访者表示信任媒体报道的新闻。

也许著名科学杂志《Nature》对图像数据处理的基本准则值得新闻工作者参考:对于某些实验、领域和技术来说,一定程度的图像处理不可避免,但最终获得的图像必须正确表示原始数据且符合道德标准。任何数字处理技术(应用于全图的除外)都需要在方法或补充信息中解释说明。任何对原始图像中数据的歪曲都是被严格禁止的。

在全媒体报道的制作中,可适度合理使用人工智能,让新闻的表达更加清晰、生动形象。我们不应认为“人工智能=造假”,区分造假的关键在于是否歪曲事实,是否违背整体真实性原则。只要处理合乎规范,而且具有合理的真实性,就不属于新闻造假的范畴。

今年普利策新闻奖提名的45篇作品中,有5篇在调查、报道等环节使用了人工智能。这是该奖项首次要求推荐方提供人工智能使用情况说明。普利策奖评审委员会只在新闻类奖项中增加了这一要求。这一方法是探索性的,普利策奖评审委员会从未考虑过限制人工智能的使用,因为他们认为这样做会妨碍新闻编辑室对创新技术的运用。

以后,我们可能会看到更多利用人工智能采制的作品参评中国新闻奖。但是在新闻摄影奖项中,中国新闻奖今年的评选办法明确规定人工智能生成的照片不予评选。