Anthropic 又因为封号陷入争议。

近期,OpenClaw 创始人 Peter Steinberger 在自己的社交账号抱怨,不知出于何种原因,自己的 Claude 账号一度因可疑活动被暂停,随后才恢复使用。Claude “爱封号”这件事几乎所有 AI 玩家都有所了解,但这次可不像是 Anthropic 无厘头发疯,更可能是因为在几天前,Anthropic 刚刚调整规则,收紧了 OpenClaw 这类第三方 Agent 对 Claude 订阅额度的调用方式。

打开网易新闻 查看精彩图片

(图源:X)

实际上,过去两年时间里 Anthropic 不断在陷入这类争议,作为最强调安全的 AI 公司之一,它的审核机制和风控逻辑其实是不够明确的,尤其是随意封禁用户账号这件事。但Claude 的代码强、长文本稳、复杂任务表现出色,依然吸引这一大批忠实用户与开发者。

这就显得十分矛盾了,Anthropic 一边靠模型能力不断吸引开发者,一边又没有给出清晰的风险警示。这对于所有用户而言,每一次使用都像站在刀尖上跳舞。

半年狂封 145 万个账号,Claude简直杀“疯”了

半年狂封 145 万个账号,Claude简直杀“疯”了

Anthropic 这次和 OpenClaw 的风波之所以引起争议,主要还是这家公司在账号管理方面的老问题终于惹到了“大佬”,这让从前只敢在个人社交账号抱怨几句的小开发者和用户们,都纷纷站了出来,指责 Anthropic。

Anthropic 在 2026 年 1 月更新的 Transparency Hub 中提到,仅 2025 年 7 月到 12 月,它就封禁了 145 万个账号,同期收到 5.2 万次申诉,其中有 1700 次申诉被推翻。虽然提交的申诉基本都通过了,但问题在于,Anthropic 对风控管理的解释就不够清晰。

打开网易新闻 查看精彩图片

(图源:Anthropic)

Claude 官方帮助中心目前的表述是,账号可能因为反复违反使用政策、来自不支持地区注册,或违反服务条款而被停用,若用户认为自己被误封,可以走 appeal 流程申诉。规则听起来很明确,但实际操作起来就没有这么简单了。按照官方的说辞,由于产品上线和邮件量增加,回复速度可能慢于平时,试想一下,假如你是一名开发者,账号莫名其妙被封禁了,申诉还要等上一两天时间,岂不是工作的计划全被打乱了?

打开网易新闻 查看精彩图片

(图源:Anthropic)

去年 8 月,有用户在 issue #5088 中表示,自己支付 Claude Code Max 5x 套餐后,立刻收到 “This organization has been disabled” 的报错,之后通过邮件、封号申诉表和站内支持都没有得到有效回应。同年 10 月,又有人发帖求助,自己的 MAX 订阅过期后重新续费,结果账号直接被封,最后只收到一句“违反 Usage Policy”的结论,却没有更具体的说明。

也就是说,即便用户购买了高级的套餐(Claude Code Max 5x 月资费为100美元),也并不能让官方正视你的合理诉求,也存在无故被封禁的风险。

更令开发者们无语的是,Anthropic 自己提供的官方整合方案也不是绝对安全的。比如,有用户反馈称自己在高频使用官方 GitHub App 或 Claude Code Action 做 PR review 时,账号会被系统识别成脚本化异常行为,账号就被永久封禁了。

的确,Claude 目前还是很多开发者、用户最喜欢的大模型工具,而 Anthropic 也在强调自己是最安全的 AI 公司之一,甚至把“安全”的口号打上超级碗广告。但它也的确在安全管理方面经常性“一杆子打死一船人”,让开发者们叫苦连连。

独立开发者遇上 Claude 封号,太惨了

独立开发者遇上 Claude 封号,太惨了

小雷认识一位真实的 Cladue 用户,他目前定居美国,原本有一份相对稳定的工作,2025 年辞职后开始在家独立开发一款偏小众的应用。由于原本并非从事软件开发的工作,因此转向独立开发之后,很多事都需要 AI 的帮忙,比如从功能设计、代码编写,到文档整理、产品思路梳理,很多环节都离不开 AI 工具的辅助。

最开始,他也不是一上来就选了 Claude,而是先后试过 GPT 和 Gemini,来回用了一段时间之后,才慢慢把重心放到 Claude 上,甚至直接开了 MAX 订阅。他说,Claude 的写代码能力,在他刚接触这些 AI 时,的确是最强的,可以说是独一档的存在。

那天他正在用 Claude 帮忙改一段代码,前面的对话都还正常,页面却突然跳出停用提示,账号一下就进不去了。他第一反应就是彻底懵了,明明刚刚还在准备跑代码,怎么突然就被停用了,自己也没有做什么特别的事情,也没有非法操作。

打开网易新闻 查看精彩图片

(图源:雷科技制图)

于是他立刻提交申诉,虽然申诉入口倒是有,可真正提交之后,等来的还是一套很模板化的回复,没有明确解释是哪一步触发了风控,也没有说清楚类似情况以后该怎么避免。

这恰恰就是大部分用Claude 的用户最害怕的时候,用户不知道自己为什么被拦,也不知道这是不是一次误判,更不知道下次正常使用时会不会再撞上同样的事。对于像我朋友这种已经把 Claude 当成生产力工具、甚至愿意为 MAX 付费的人来说,这件事让他感到了小小的震撼。

打开网易新闻 查看精彩图片

(图源:雷科技制图)

Claude 这类工具最特别的地方,本来就是强记忆性的,一旦整个账号被停用了,之前提过的需求、改过的代码、跑过的设计方案,就全都丢失了。在他成功提交申诉过后大约三天时间,账号才终于恢复,但他已经有点忘记之前要改的代码是哪一部分了。

虽然有风险,但这位朋友最后还是选择了继续使用 Claude ,因为目前来说,他还是觉得Claude 用起来比 GPT、Gemini 要顺手。不过,他也表示以后不会把所有任务都交给Claude ,毕竟它的风险实在太大了。

平台“一言堂”,用户不买账了

平台“一言堂”,用户不买账了

说到底,Anthropic 之所以敢肆无忌惮地封号、改规则,就是因为它知道只要 Claude 还够能打,很多人最后还是得继续用。但问题就是如此,现在这些闭源 AI 产品,越来越像云服务商和应用商店的结合体,模型能力在平台手里,审核权在平台手里,解释权在平台手里,连价格怎么定、规则怎么改,也都在平台手里,自然就是它们想怎么做就怎么做了。

一旦被封号,很多开发者的工作流就彻底失效了。但也正因为这样,开源模型和本地部署越来越受到重视。Google 在 2026 年 4 月发布的 Gemma 4,不仅把模型做小了,还彻底改写了之前小模型不抗打的历史。Google 这次一口气给了好几个尺寸,小的可以放到手机、笔记本这类设备上跑,大一点的算力要求也比较低,完全可以实现本地部署。官方给出的测试成绩里,31B 和 26B 版本在知识理解和代码能力上都已经到了很能打的水平,几乎接近可以干正事的阶段。

打开网易新闻 查看精彩图片

(图源:Anthropic)

按照 Google 官方的解释,Gemma 4使用了 hybrid attention,把局部滑动窗口注意力和全局注意力交错起来,同时在长上下文里用统一的 Key/Value 和 p-RoPE 去压内存,降低了内存和算力的压力,能在更低的显存和功耗条件下,承担越来越重要的推理、编码和 agent 任务。

更直白地说,过去一提到本地部署,很多人的第一反应还是小模型算力太小、大模型性能要求太高,真要认真干活,最后还是得回到 Claude、GPT 这种云端闭源产品。但目前的趋势就是开源、本地小模型越来越受重视,长代码、多轮任务这种过去更依赖云端的场景,已经开始有机会被部署到本地,再也不用看这些云端闭源模型厂商的脸色做事。

打开网易新闻 查看精彩图片

(图源:Google)

那么问题来了,如果以后越来越多开发者都把关键任务搬回本地,Anthropic 这种动不动封号的操作会不会被杜绝呢?目前来看,其实技术上还是有比较明显的限制,但至少方向是符合大多数开发者预期的。毕竟只要模型跑在自己的设备里,账号被封、平台限流、订阅说改就改这种事,几乎就不会发生了。