Chiang的Twitter账号有47万粉丝。上周,它消失了。

封禁理由只有四个字:"非真实行为"。这位AI Money Lab的创始人,被自己研究的领域反噬了。

一个活人被算法判定为机器

一个活人被算法判定为机器

Chiang在邮件里复盘了整个过程。他的实验室专注AI金融研究,Twitter账号@CHiang_AILab是核心阵地。日常运营中,他大量依赖自动化工具:API驱动的工作流、高频研究分享、定时发布系统。

这些配置在技术人员眼里稀松平常。但X的检测系统不这么看——发帖频率过高、互动模式规律、内容结构相似,算法将这些标记为"自动化账户特征"。

Chiang的困境在于:他确实在使用自动化,但每一个字都是真人写的。这就像厨师用料理机切菜,却被质疑菜不是人炒的。

「我被自己研究的领域反噬了。」他在邮件里写道。讽刺的是,一个研究AI的人,因为"太像AI"而被平台驱逐。

平台的"真实"标准正在收紧

平台的"真实"标准正在收紧

X不是唯一收紧缰绳的平台。2023年以来,主要社交网络的自动化检测都在升级。Meta淘汰了大批第三方自动化工具,LinkedIn对API调用频次设限,TikTok的"真实用户"验证越来越频繁。

平台的逻辑很简单:真实用户=可变现用户。机器行为=潜在垃圾信息/操控风险。这条公式之下,技术极客和内容农场被归进同一类别。

Chiang的账号并非孤例。2024年初,一批AI研究者的Twitter账号遭遇类似封禁,多数申诉无果。平台不会公开检测规则——公开即被绕过——这意味着误伤成本由用户承担。

「我们没有收到警告,没有人工复核入口,只有一封模板化的封禁邮件。」Chiang描述的过程,和无数普通用户的遭遇一模一样。

技术人的两难:效率还是存在感

技术人的两难:效率还是存在感

Chiang的实验室正在调整策略。邮件里透露了几个方向:降低自动化依赖、增加"人工痕迹"(比如即兴回复、非定时发布)、分散平台风险。

这些调整都在做同一件事:让自己看起来更"不像机器"。

这对技术导向的创作者是一种倒退。自动化工具本是为了释放认知资源,让人专注内容本身。现在,他们不得不把精力花在"表演真人"上——在错误的时间发帖,故意制造拼写错误,模拟人类的不规律作息。

更深层的问题在于:当平台成为基础设施,它的规则就具有了立法效应。X对"真实"的定义,正在重塑整个创作者经济的运行方式。

Chiang选择用邮件列表重建连接。这很老派,也很抗算法。「至少这里,我们不会被误判为机器人。」

47万粉丝的归零,换来一个更私域、更可控的阵地。这是损失,还是解脱?Chiang没有明说。但他的下一句话是:「欢迎加入这个inner circle——无论你来自GitHub,还是来自那条消失的推文。」