【文/观察者网专栏作者 黄楚新 陈智睿】
2026年3月末,一则题为“AI写公众号,年赚200万”的访谈视频在社交媒体引发广泛传播。视频中的受访者宣称,其团队利用AI脚本实现了从热点捕捉、内容生成、排版发布的全流程自动化,单号日均收益可达800元。
但很快,涉事公众号“爆了么AI”便被微信公众平台永久封禁,理由是“存在非真人自动化创作行为”。
此事已告一段落,但留给内容行业的反思却远未停止。尽管此前有很多讨论和焦虑,然而AI技术对内容创作者的冲击已经成为现实,其正以近乎零成本的姿态涌入内容创作腹地,并逐步颠覆传统内容生产过程,更将依赖独立思考的创作者置于巨大的不确定性中。在流量逻辑的冲击下,重新审视AI介入创作的边界与多方责任,已然具有不容回避的现实紧迫性。
质量逻辑与流量逻辑的博弈
在流量经济的规则里,注意力就是货币。平台算法奖励的是点击率、停留时长和转发量,而非单纯的内容深度与原创性。在此种流量逻辑下,标题越耸动越好,情绪越激烈越好,信息密度反而不那么重要。
而AI工具通过对爆款文本进行反向拆解,能够在短时间内拼凑出符合算法偏好的低质量文章。这种生产方式不追求观点的独创性,不承担事实核查的责任,其唯一目标是以最低的成本攫取最高的流量回报。
与之形成对照的,是传统内容创作所遵循的质量逻辑。一篇经过独立思辨、资料爬梳与反复打磨的文章,其生产周期往往以天甚至周为单位。它所提供的价值不在于迎合既有情绪,而在于拓宽认知边界、提供新鲜视角或推动公共讨论的深入。
然而,在流量逻辑主导的注意力市场中,传统的生产模式正面临前所未有的危机。这种危机有三方面的特点。一是推荐位的争夺,AI批量内容凭借高频率发布占据更多的曝光机会;二是用户习惯的养成,长期接触浅表化内容会降低读者对深度阅读的耐心;三是商业回报的分流,广告主的部分预算可能转向成本更低、数据表现更亮眼的AI内容账号。
当大量同质化、浅表化的AI生成内容涌入信息流,读者有限的注意力被稀释,优质内容触达目标用户的难度随之陡增。长此以往,受损的不单单是个体创作者的生存空间,更是整个公共信息场域的质量。
辅助与代劳的分野在何处
开头提到的案例发生后不久,微信公众平台就新增了针对“非真人自动化创作行为”的规定,其中明确禁止以AI等技术手段“替代真人完成内容创作”,不过却并未否定AI作为辅助工具的合理使用。平台的规则为创作实践划出边界,但落实到具体操作层面,辅助与代劳之间的分野仍需进一步廓清。
从创作伦理的角度审视,二者的本质差异在于创作主体的在场与否。当创作者自行确立选题方向、搭建论证框架、注入个人判断,而仅将AI用于资料检索、语句润色或格式规范,这属于工具理性的正常延伸,创作的主体性并未旁落。
反之,如果从选题生成、内容铺陈到终稿输出全程无实质性人工介入,创作者退化为流程的触发者而非思想的组织者,便构成了主体性的实质让渡。那对夫妻的做法之所以越界,恰恰在于他们将这些本应由人承担的核心职责全部转移给了AI。
这种主体性让渡所带来的,远不止是内容质量的差异。从信息传播的角度看,缺乏人工审核的AI生成内容极易出现事实性差错,AI幻觉所制造的似是而非的内容,往往比显眼的谣言更难察觉。但真正值得忧虑的并非技术本身的局限,而是创作者角色的消解。当写作者不再阅读自己发布的文字,不再为自己的表达负责,写作将从创造性的活动降格为狭隘的流量生产。
同样值得警惕的是,当AI生成的内容出现虚假信息、侵权或伦理问题时,责任归属存在争议,涉及开发者、运营者乃至算法本身,当前法律与伦理框架尚未明确界定各方的责任边界。守住辅助与代劳之间的这条界线,其意义在于维护创作作为人类活动的尊严,也在于为尚未成型的责任体系筑牢底线。
“AI幻觉”概念图由AI关键词生成
在效率与秩序中守住多方底线
面对AI带来的冲击,单纯抵制或放任都不可取,需要多方协作构建新的平衡点。对于此次事件,单个账号的封禁处理也只是开始。
平台方面,封禁是必要的处置手段,但后续的规则细化更为重要。目前各大内容平台对AI生成内容的态度并不统一,有的要求明确标注,有的限制特定领域使用,有的禁止完全自动化发布。未来平台可能需要建立更精细的识别和分级机制。如果平台能够在算法中更多地纳入内容质量评估、原创性检测等综合维度,就能从源头上压缩批量做号的获利空间。这些技术手段的引入,目的是在不阻碍正常创作的前提下,识别和限制纯套利行为。
监管方面,也有几个方向值得关注。一是明确AI创作的法律边界与责任。二是建立分级分类管理机制。对于新闻、医疗、财经等专业领域的内容,设置更高的审核标准。三是推动跨平台协同治理。在保护商业竞争的前提下,建立违规主体的信息共享机制,防止出现转移平台的规避行为。
创作者方面,需要面对的是职业规范的更新。AI工具的使用已是大势所趋,完全拒绝并不现实,也无必要。但使用AI同时意味着需要承担相应的审核责任。创作者应该对自己署名发布的内容负责,无论这些内容有多少比例由AI生成。具体来说,事实需要核实,观点需要确认,引用需要查证。
用户方面,面对信息量持续增长的环境,辨别能力的提升同样重要。AI生成内容往往具有部分特征,如语言流畅但缺乏具体细节,观点全面但缺少个人视角等。了解这些特征,有助于用户做出自己的判断。这也不是要求每个人都成为鉴别专家,而是希望用户在长期的信息接触中形成基本的辨别意识。
技术发展带来的问题,最终仍需要在技术应用的过程中逐步解决。各方守住各自的底线,形成合力,才能让AI在内容生产领域发挥其应有的价值,而不是沦为少数人套利的工具。
结语
“爆了么AI”公众号被封禁后,类似的自动化运营模式可能不会完全消失,但微信平台释放的信号是明确的,即完全脱离人工作用的机器生成内容,不在规则允许范围内。
从更大的视角看,这件事也提醒我们,技术发展往往快于规则制定。当新生产工具出现时,旧有的监管框架和行业规范需要一个调整周期。在这个过程中,监管部门的规则细化、平台的责任落实、创作者的自律约束、用户的素养提升,缺一不可。
更进一步,内容行业的竞争不会仅是效率的竞争。技术可以降低生产成本,但无法替代人的判断。那些需要深度思考、个人经验和独特视角的内容,仍然需要人去完成。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。
热门跟贴