每一轮科技变革,媒体总是首当其冲受到影响。
在上一篇文章的文章中,分享了数字媒体网站BuzzFeed的转型经历,它是最早拥抱AI转型的,恐怕也是最早在转型中倒下的先烈。
当然,写这篇文章的核心,并不是要否认媒体的AI转型,或者反对拥抱AI,关键是要用正确的姿势拥抱AI。如果说BuzzFeed的转型经历有什么参考,我觉得是它转型过程中的这六个陷阱,特别值得警惕。
毕竟,别人踩过的坑,我们没必要再踩一遍。每家媒体转型成功的因素或许各不相同,但在失败的教训上,却总能有这惊人的相似。
以下六个陷阱,是从第一轮媒体AI转型的惨烈实践中提炼出来的。不是为了否定AI,而是为后来者提供一种镜鉴。
陷阱一 把AI当成替换采编的廉价劳动力
降本增效的逻辑,会摧毁媒体的根基。
很多媒体引入AI的第一个动作,往往是裁人。
管理层的算账方式很直观:一个AI工具的年费,低于一名记者的年薪。如果AI能写稿,为什么还要养那么多人?
这个逻辑在季度财报上成立,但在长期生存上会摧毁媒体的根基。
2023年11月,美国体育传媒的金字招牌——《体育画报》被曝出一桩荒诞丑闻:旗下大量文章的署名作者,是AI生成的虚假人物。Drew Ortiz、Sora Tanaka,名字像模像样,头像精心炮制,简历一应俱全。唯一的问题是:这些人不存在。
这家活了70年的老牌媒体,选择用欺骗来完成"AI转型"。结局不意外:舆论风暴、大规模裁员、股权易主,品牌几近崩塌。同一时期,CNET秘密用AI写理财文章,被揭发后错误百出;MSN的AI旅游攻略把食物银行推荐为热门景点;BuzzFeed全面押注AI内容,流量不升反降,最终关停新闻频道。
都在拥抱AI,但拥抱的姿势不对,最终是越转型路越窄。
体育画报、CNET、BuzzFeed走的都是同一条路线:裁人→AI批量生产→内容质量下滑→公信力崩塌→更大的危机。他们都在踩着相似错误,走进同一条失败的河流。
AI可以一秒生成一千篇稿子。但它写不出一个记者在暴雨中蹲守三天换来的现场判断,写不出一个编辑对读者情绪的精准把握,写不出那种让人读完想转给朋友的东西。
路透社新闻研究院2025年的报告讲得直白:AI生成的新闻报道往往流于表面,要么聚焦炒作,要么缺乏批判性视角。而对事件的真实洞察、对新闻当事人的共情、对公共舆论对批判性视角,恰恰是媒体存在的意义。
AI真正的问题不是"能不能写稿",而是"媒体存在的意义是什么"。
如果一家媒体的全部价值就是"生产文字"、追逐流量,AI确实能替代它,但那也说明,它本来就没什么不可替代的。
用效率换灵魂,是最昂贵的交易。
陷阱二 流量思维的自我矮化
让算法决定选题,媒体正在把自己训练成内容农场。
这个陷阱比上一个更隐蔽,因为它裹着一层"数据驱动"的专业外衣。
逻辑链条是这样的:AI分析用户行为,发现什么内容点击率高,就批量复制类似选题;算法推什么,就写什么;读者爱看什么,就追什么。
读者喜欢看“刚刚”,那就什么事都刚刚,哪怕早已过了新闻的第一时效性。读者喜欢看“震惊”,那就只用震惊做标题,从鸡毛蒜皮里也能找出震惊的角度,读者都快被震麻了。
表面上叫"以用户为中心",本质上是媒体把选题权、议程设置权拱手让给了流量热词。离开了这些流量诱饵,大家似乎都不会写稿子,不会写消息了。
算法的优化目标是点击率和停留时长,不是公共价值。当内容决策权交给算法,选题会系统性地偏向娱乐化、情绪化、碎片化。三年之后回头看,这家媒体"什么都有,但什么都不深"。最后是读者离开,广告商逃离。
更可怕的是一个自我强化的死循环。
算法引导媒体生产浅内容→浅内容培养了读者的浅阅读习惯→数据反馈"浅内容效果更好"→媒体加大浅内容生产。
循环往复,越转越浅,直到整个内容生产,离开了流量的指挥棒就无所适从。
传媒学界给这个现象起了个精准的名字:新闻泰勒主义。把新闻生产拆解成可量化的效率单元,追求产量最大化,在这个过程中丧失的,是新闻业最核心的东西,对真相的独立判断、对公共价值的守护。
流量是媒体的燃料,但不是引导方向的导航。跟着算法的指挥棒走,迟早开进沟里。
陷阱三 AI实验空转,原型成了终点
没有业务目标的技术探索,只是烧钱的自我安慰。
欧洲媒体圈流传一个冷笑话:很多编辑部的AI项目交付物,是一份很好看的PPT,或演示Demo。
奥地利通讯社APA的副总编辑,在2025年路透社新闻研究院的会议上说了一句话,让现场很多人沉默:“实验很有趣,你能学到很多。但当实验结束,你不知道该怎么办。我们在欧洲看到太多漂亮的原型和概念验证,然后……就没有然后了。”
这是媒体AI转型中一个普遍,但很少被公开讨论的窘境:技术实验和业务战略之间,有一道巨大的断层。
太多AI项目的生命周期长这样的:
起点:“领导说要跟上技术潮流。”
过程:“技术团队做了个挺酷的东西。”
终点:“不知道怎么推广,也不知道到底解决了什么问题。”
然后项目悄悄死掉,团队悄悄解散,PPT或项目代码存进共享硬盘的某个角落。
请注意的是,这里不是要否定所有媒体的AI项目。而是那些没有业务目标的空转项目。
在AI转型上,也有一些成功的参考。比如《金融时报》,他们在内部建了一个"AI沙盒",让编辑室所有人都能安全地实验AI工具和提示词。
但关键在于:每一个面向读者的AI功能,都必须有明确的业务目标:提升评论区参与度、增加订阅续费率、帮助视障读者获取信息。
每一步有数据验证,每一个原型都要回答同一个问题:你解决了什么?AI实验的正确起手式不是"我们要用AI做点什么",而是"我们有一个业务问题,AI能不能帮我们解"。
技术不是目的。问题才是起点。
陷阱四 内容资产换工具使用权
媒体在不知不觉中,成了AI公司的数据供应商。
这是一个让很多媒体高管不太愿意面对的话题。因为他们很可能已经掉进去了。
场景是这样的:媒体机构使用第三方AI工具生产内容,接受AI公司的"战略合作"协议,把几十年积累的内容档案"共享"给AI平台,换取工具权限或一笔看起来不少的授权费。
听起来像双赢。实际上是拿自己的城墙换了一张临时入场券。
这些内容资产,正在被用来训练AI模型。当模型训练完成,AI公司可以直接面向用户提供信息服务。到那时候,媒体就变成了一个可以被绕过的中间层。
2023年,《纽约时报》起诉OpenAI。核心指控只有一句话:你用我几十年的新闻内容训练了你的模型,然后用这个模型来抢我的读者和广告。
这是一场关于内容主权的争夺。路透社研究院也指出了一个现实:"选择退出"基本不可行,网络爬虫几乎无法被完全阻止。但媒体至少可以争取两件事:数据使用的知情权,以及收益的分享权。
在AI时代,原创的内容是媒体唯一真正的护城河。
把它廉价出让,等于拆掉自己的城墙,递给对手一把打开城门的钥匙。
陷阱五 算法夺走议题设置,媒体丧失叙事主权
当"写什么"由数据决定,谁还在坚守公共价值?
这个陷阱的危险性,不在于它会让某一家媒体失去主动权,而在于它会让整个媒体生态失去方向。
在媒体里面,编辑这个岗位的最核心的职责是什么?不是改错别字,不是调版面,是议题设置;在海量信息中判断什么选题是重要的、什么是公众需要知道的、什么是值得记者去深挖、追问的。
这种判断力,是媒体区别于其他内容机构的核心特质。AI和算法正在侵蚀它。
当选题会上的第一个问题变成"这个话题数据怎么样",当稿件评估的核心标准变成"预估点击量多少",编辑的独立判断力就在一次次妥协中慢慢萎缩。不是一夜消失,而是温水煮青蛙。
巴拉圭记者Jazmín Acuña在路透社研究院的发言中,问了一个沉甸甸的问题:“我们没有追问足够多的问题:某种技术的社会目的是什么?它在以什么代价推进?”这种追问,是机器做不到的。
《纽约时报》的做法提供了一个正面样本:他们用AI分析了数小时的参议院听证视频,精准定位关键发言节点,帮记者完成了人力几乎不可能完成的信息检索。
AI做了苦力活,但选题判断、价值追问、叙事框架,全掌握在记者和编辑手里。算法可以告诉你受众喜欢看什么。但只有编辑能判断,受众应该知道什么。
当媒体放弃后一种判断,它就从公共服务机构转化成了注意力收割者。
陷阱六 透明度缺失,一次欺骗摧毁全部信任
AI介入不是问题,隐瞒才是。
2023年9月,MSN发布了一篇NBA球员Brandon Hunter的讣告。标题写的是——
“Brandon Hunter在42岁时毫无用处。”
原文是"passed away at 42"。AI在处理标题时把"去世"改写成了"毫无用处"。更严重的是:没有任何人审核过这篇文章,也没有任何地方标注它是AI生成的。
一个人的死亡,被一台机器写成了一个笑话,然后被另一群机器分发出去,全程无人过问。
体育画报的AI记者、CNET未经披露的AI文章、MSN的AI旅游推荐……这些事件的共同点不是"AI犯了错",AI当然会犯错,人也会。真正的问题是:媒体对读者隐瞒了AI的介入。
堪萨斯大学的研究揭示了隐瞒的代价:读者一旦发现某篇内容由AI生成,对这家媒体所有内容的信任度都会下降,包括那些完全由人类记者撰写的文章。
信任的崩塌是不分青红皂白的。它不管你哪篇是AI写的,哪篇不是。你骗了我一次,我就默认你每次都在骗。
有些媒体的做法值得借鉴:《纽约时报》在AI协助的报道中明确标注分析工具和方法;《卫报》公开发布AI使用准则;BBC的深度伪造检测器正在接受准确率评测。
这些媒体达成的共识很简单:AI参与新闻生产不是问题,但你必须告诉读者,AI参与了什么,参与了多少,在哪个环节参与的。
透明度不是负担,是护甲。
转型的正确姿势
六个陷阱,归根结底指向同一个问题:在AI时代,媒体该如何守护自己的独特性。
是内容工厂?是算法的执行者?还是公共话语和价值的守护者?
那些在AI时代真正找到方向的媒体机构,有一个共同特点。
《纽约时报》用AI处理海量听证视频数据,判断权留在记者手里。《金融时报》用AI增强读者互动体验,但每个功能必须回答"解决了什么问题"。BBC用AI帮助视障读者获取新闻信息,技术服务于使命。
它们没有问"AI能为我们做什么"。它们先回答了一个更根本的问题:我们是谁,我们为谁服务。然后才去看,AI能不能帮到这件事。
AI时代对媒体的真正考验,不是技术能力,不是预算规模,不是转型速度。
是自我认知的清醒程度。
当生产变得廉价,真正稀缺的,不再是“能不能做”,而是“为什么做、为谁而做”。
只有那些找准自己定位、守护自己独特性的媒体,才能在AI转型中,不被同质化的洪流吞没,不被效率叙事所裹挟,才能在看似“更快、更便宜、更自动化”的变革中,依然守护价值的边界,赢得长期存在的理由。
本文参考路透社新闻研究院2025年会议报告、堪萨斯大学AI新闻信任研究、Red Line Project调查报道及多起媒体AI事件记录。
热门跟贴