记者 钱玉娟
3月10日,小红书发布了一份《关于打击AI托管运营账号的治理公告》(下称《公告》),称发现部分用户采用AI托管模式运营账号,通过技术手段自动生成内容、发布笔记,并在评论、私信、群聊等场景中模拟真人互动。
这一行动的背景是,开源AI智能体框架OpenClaw在全球掀起一场“养虾”运动,众多创作者开始利用AI工具进行选题抓取、图文生成、自动分发、私信交互。面对大量矩阵式AI账号挤占信息流,依赖人设感与信任背书的小红书,开启了一场社区保卫战。
“平台严格禁止任何利用技术手段模拟真人、进行非真实内容创作或虚假互动的行为。”小红书呼吁用户在创作过程中合理使用AI工具,坚持由真人分享真实经历与感受,以共同守护社区的底色。
一位小红书用户认为,“小红书平台最宝贵的就是人味儿。”他支持平台在《公告》的相关举措,认为不只是当下要限制和降低AI出现的频率,从长远看,当人们每天都和AI互动交流,未来一个“反AI”的平台反倒更有稀缺性,“都是AI以及AI生成内容的平台,谁还想看呢?”
目前小红书上已经有不少笔记被打上“内容可能使用AI技术生成”的明显标识。该小红书用户认为,这类AI生成内容具有明显特征,例如标题、用词和语法上都不像真人那样随意且情绪化,“AI会很生硬的表达。”
一位接近小红书的人士以“我吃饭了”这一口语表达解释,AI训练过程中主要使用文献等专业语料,例如“我已于今日12:30完成午餐”,而口语化数据较少,这导致AI“不说人话”。为此,小红书会拿着一部分训练好的口语化数据样本,进行模型训练。当其他AI模型生成的内容出现较大偏差时,系统就能据此分析出来该内容是否来自真实用户。
一位互联网社区产品技术负责人向经济观察报记者指出,即便大模型生成的文本日益自然,但在大规模数据池中,模型的统计学特征依然明显。这导致AI生成的文本在词汇选择上,倾向于选取概率最高的中性词,如“首先”、“总之”。句式结构也会更严谨,缺乏人类书写中常见的口语化断句、语序倒置或方言倾向。
小红书并未在《公告》中透露其甄别AI托管的具体方法。有AI模型厂商工程师向记者透露,识别并非依赖某个单一指标,真实用户在社交平台上的行为通常具有随机性与非连续性,例如真人回复评论时存在生理性的“处理时长”波动等。此外,编辑页面停留时长、验证码填写速度等,都可以作为有效的辅助识别指标。
上述互联网社区产品技术负责人也指出,一旦“养虾人”AI托管运营社交媒体后,其脚本往往呈现出一定的结构化特征,例如内容7×24小时均匀分布,甚至定时发布精确到秒级,而在回复评论时则表现为恒定的响应速度与标准化的句式长度,缺乏真实社交语境下的情绪起伏。
该互联网社区产品技术负责人认为,AI制造的低质信息流一定会稀释原生创作者的曝光权重,导致优质内容供给流失。另外,像小红书这样靠内容种草、广告营销作为标签的社交平台,品牌方也无法接受其广告投放被AI账号点击或互动的情况。
从小红书的治理方法来看,若普通账号偶尔使用AI托管代写、代发笔记或互动,平台会采取警告或限制内容分发等阶梯式处理措施。“平台有推荐权重,一旦账号被识别或被判定为AI托管,首先会降低推荐权重并进行拦截。”前述接近小红书人士认为,此次平台治理的严苛之处在于,一旦某一账号被判定为直接通过AI托管工具注册、发布、互动,或主页所有公开笔记均为AI托管代发,平台将直接予以封禁处理。
在当前近乎全民将AI视为提效工具的背景下,小红书率先对AI托管展开限制与管理。“内容创作需要回归‘重人设’、‘重真实经验’的原始属性。”上述互联网社区产品技术负责人补充,小红书在《公告》中还公布了用户举报渠道,引入用户侧的“人感验证”来辅助决策,这有助于弥补算法识别的滞后与误判。当大量用户反馈某一账户“回复生硬”、“内容雷同”时,平台或将其视为高权重的扰动项,进入人工复核流程。
热门跟贴