评论区越来越阴阳怪气了,这种变化的严重程度可能超乎我们的想象。

首先它是所有社区/用户运营者们的噩梦:虽然单条评论的内容看上去好像影响有限,但由于“评论”是普通网友最容易掌握的内容创作载体,往往会贡献一个内容社区中的绝大部分可读内容。在这种情况下,一旦“影响有限”的“不友善评论”积少成多,就会直接主导社区的舆论氛围向糟糕的方向发展。

但加大运营工作强度或许还只是小事。由于“评论”是用户与内容创作者之间最直观的互动形式,评论中出现的“不友善内容”往往会严重干扰到创作者们的情绪,从而使得设置评论区最初要求的“奖励机制”很容易转变为“惩罚机制”,降低创作者产出优质内容的“性价比”。

最典型也是最惨痛的教训属于A站。今年年初B站纳斯达克完成上市,人们集中追思二次元产业的主动权为什么会从A站手中溜走时,一个关键的节点总是会被反复提起:“西林卖站无人管理的那段日子里,弹幕质量下降严重,喷子太多”——于是优质创作者带着核心用户出走,之后关于A站的关键词只剩下了“可惜”。

难好又难治,层出不穷的教训让如今网友们形成了一种类似于自救的条件反射:阴阳怪气,举报了再说,打算从根本上防患于未然。但“举报了再说”这种方法真的能够治疗这个病吗?

没用的“举报了再说”:非常规、高难度和高成本

“举报了再说”,一般指通过用户自查+人工审核过滤掉不适宜或不合规内容的内容审核策略,目前在内容社区领域内被广泛采用,在规范内容创作者的创作边界上发挥着积极作用——但这也正是“举报了再说”在治理“不友善评论”时失效的关键所在:

评论虽然在表现形式上符合“内容载体”的定义,但发出评论的人往往并不能达到“内容创作者”的要求。

这个特性让“评论”作为单独的内容品类先天自带巨大的差异性,即内容取材、文笔质量、信息增量等方面会呈现普遍性的差异,并不适合执行拥有明确规则的强运营策略,而更加适合采取“向下兼容”的弱运营策略,即只要不在触碰边界的情况下百无禁忌。

因此在这种情况下,“用户主观上受到冒犯”和“内容客观上难以界定”形成了一对天然的矛盾,不但容易出现矫枉过正或者尺度过宽的情况,一旦错判很容易会让用户觉得“自己的社区权益”受到破坏——这决定了评论管理必然的“人治”色彩,也决定了评论审核无法草率地使用机器/算法代替。

另一方面,评论行为的诉求紊乱以及语境的变化,让“不友善评论”现象也变得难以自愈。

具体来说,与运营者们对广告、黄赌毒等有害信息的审核机制不同,“不友善评论”没有明显的标志性字眼用于预判和检测,甚至受到语境的变化、新鲜事物的诞生等等因素影响,这些“不友善评论”的用词还会不断进化或者在原有基础上衍生,例如:

a.难道只有我一个人觉得XXXXX吗?

b.不转不是XXX!

以上两个常用短语在几年前的社交网络中用来指代“态度的不从大流”以及“态度的坚决”,但现在读起来几乎满满的贬义色彩,这被动要求运营者必须拥有足够深度和广度的素材库才能完成“评论管理”的判断环节,几何倍放大了难度。

总之,非常规的运营难度加上高昂的犯错成本,意味着内容社区不得不在“评论管理”投入巨大的运营成本。例如在遭遇内容审核后,快手将自己的内容审核团队迅速扩张到了3000人,而今日头条更是拿出了近万人的内容审核团队招聘计划——这是在创业公司里难以想象的,也注定无法成为长久的稳定策略。

改造“举报了再说”:上游判断、下游执行和机器学习

想要打破僵局,往往需要对问题本身进行重新解构。具体到“不友善评论”现象,具体可以重新归纳为以下几个特性:

1、不友善评论的标准在不同话题语境中不同;

2、不友善评论的情绪影响程度不同:创作者>参与(围观)者>评论发出者;

3、不友善评论的词汇总量巨大;

4、不友善评论的词性词义变化迅速;

5、不友善评论的发展路径:创作者内容发出→参与(围观者)阅读→评论

6、不友善评论的发现规律:被动发现>主动预判;

重新解构后不难发现,特性1和特性2决定了治理“不友善评论”现象需要更加多维的判断模式,即在判断内容是否“不友善”时带入对内容发布者的情绪阅读、创作环境审视和内容传递对象等等,适合进行更多的“人工介入”。

特性3和特性4则决定了治理“不友善评论”现象需要在日常运维工作之外保持高强度的信息收集和分析,即判断又有哪些词语被人们公认为了“不友善评论”、又有哪些字眼改变了其初衷的语言使用方式,适合机器或算法发挥优势。

此时第二个重要问题来了:既然人工+机器/算法的组合很好地一一对应了现象的几个主要特性,那么两者分工的界线在哪里了?答案由特性5和特性6决定。

从内容产生到传播的路径上看,由于内容创作本身是一个感性行为,需要情绪与创作环节的契合才能完成,因此次生内容的发展方向往往在原生内容创作完成时就已经同步决定了;而互联网的特性又让原生内容身处在不断“被阅读”、“被发现”、“被评论”的过程中,因此治理“不友善评论”现象必要付出足够的时间成本来有效执行治理机制。

因此人工和机器/算法的分工大致可以定位为上游判断和下游执行。

在这种情况下,有学习能力的AI管家是目前最有效的策略之一。这个策略结合了人工的优势(包含感情色彩的判断)与机器的优势(大规模数据的分析以及存储),并且在行业里已经得到了验证。

以知乎的瓦力保镖为例。瓦力保镖可以看做是一个设置在内容社区里的智能助手,通过收集社区内用户产生的赞同、折叠和举报等信息进行学习,增强对用户内容偏好的了解以及内容优质与否的判断力,在日常社区管理中协助进行内容审核。

不过与传统意义上的删帖机器人有所不同,瓦力保镖的上游功能是赋能给内容创作者的,即内容创作者来选择是否开启“瓦力保镖”和“瓦力保镖以什么样的标准进行内容审核”。

据知乎发布的公开数据来看,瓦力保镖这套“上游判断+下游执行”的策略,已经让内容审核的算法/机器辅助环节从上线之初的仅能识别、处理包含辱骂、人身攻击的“不友善评论”,到对答非所问、低质提问等内容现象,都能做到地实时筛查和处理,并且准确率已经达到了93%。

总之我们不难想象,在内容阅读需求越来越强、内容创作难度逐渐加大的今天,“如何保持良好的内容社区氛围,创造更好的内容创作环境”将成为摆在所有创业者面前的核心问题,而瓦力保镖对“举报了再说”的成功改造则为我们打开了一个新的起点:

将问题作为现象重新结构,为现有资源重新找到最合适的组合方式。

本文来自微信订阅号“互联网指北”(hlwzhibei),专注于互联网文化、营销、产品。转载必须保留作者、公共帐号信息,必须与本文严格一致,不得修改/替换/增减本文包含的任何文字和图片,不得擅自增加小标题、引语、摘要等。文内所用图片来自相关媒体报道截图,为非商业用途。如有疑问请联系作者微信:melodyfu