导读

「stursia toxic one-sided yuri while these two are frolicking on the beach」——这不是密码,是某篇AI生成内容的原标题。当我看到它时,第一反应是检查自己的输入法是不是坏了。

打开网易新闻 查看精彩图片

乱码标题背后:AI内容农场的批量生产

这类标题通常来自低质量AI写作工具。它们抓取关键词随机拼接,「stursia」可能是「Sursa」(来源)的拼写错误,「yuri」是百合向内容标签,「frolicking on the beach」则是色情内容的高频场景词。

工具不在乎语义通顺,只在乎搜索引擎能不能索引到。

网易号后台每天拦截数千条类似投稿。它们的共同特征:标题无意义、正文由碎片句子堆砌、配图与内容无关。运营者批量注册账号,靠平台流量分成变现,单账号月收益约200-800元,但成本近乎为零。

平台治理的困境:猫鼠游戏升级

2024年主流平台的内容审核模型已能识别90%以上的机器生成文本,但对抗手段同步进化。最新手法是用大模型先「洗稿」——把AI生成的内容人工改写几个句子,再混合真实图片,通过率大幅提升。

某MCN机构内部流出的SOP显示,单人日产能从50篇提升到300篇,秘诀是「标题必须包含3个以上无关关键词,绕过语义分析」。

这解释了为什么你会看到「stursia toxic one-sided yuri」这种东西。

读者买单吗?数据说会,但正在变

讽刺的是,这类内容一度有市场。2023年Q2,某平台低质AI内容的平均阅读完成率竟达34%,高于部分人工撰稿——因为标题党确实能骗点击。

但2024年数据逆转:用户停留时长下降62%,举报率上升4倍。平台算法随之调整,低质内容的推荐权重被压至人工内容的1/20。

这意味着流量变现模型正在失效。

一个判断

「stursia」式的乱码标题不会消失,但会变得更隐蔽。真正的变化在于:平台从「事后删除」转向「事前限流」,内容生产者的边际收益持续压缩。这场博弈的终局不是AI被消灭,而是低质AI内容的经济价值趋近于零——当成本再低也赚不到钱时,游戏才会结束。

截至2024年12月,国内主要内容平台AI生成内容的识别准确率已达94.7%,但日均新增疑似AI稿件仍超120万条。机器与机器的对抗,才刚刚开始。