来源:市场资讯

(来源:至顶AI实验室)

今年二月,在美国发生的那一波汹涌的迁移,大概是AI公司历史上最富戏剧性的“用脚投票”。

打开网易新闻 查看精彩图片

OpenAI和五角大楼签了合同,把模型部署到国防部的机密网络里;Anthropic则因为坚持不让自家模型用于这些领域,而被美国所有联邦机构“拉黑”,紧接着被国防部按“国安风险”处理——一个通常只用于极少数外国公司的标签,被贴到了一家旧金山AI创业公司头上。

代价是惨重的,但故事的另一面是:那几天,ChatGPT在美国的卸载量据说飙了快三倍,Claude冲上美区App Store榜首,免费用户比一月涨了60%,注册量破纪录。那些在意个人数据隐私的人,终于找到了一个愿意替他们挡子弹的公司。“隐私用户”的新家,就这么建起来了。

然而到了这周,Anthropic悄悄上线了一份帮助文档,标题叫“Claude的身份验证”——部分用户在使用某些“功能”、或者触发“日常平台完整性检查”时,会被要求交出一张真实的、未损坏的护照、驾照或身份证原件,再配一张实时自拍。照片扫描件都不行,手机电子证件更不行,学生证当然也不行。验证方是Persona,一家在金融KYC领域混的硅谷公司。

打开网易新闻 查看精彩图片

这则消息在海外社交平台上炸了。有人直接说:这不是法规要求,不是监管命令,是Anthropic自己要做的。ChatGPT不要求,Gemini也不要求,只有Claude要求。二月份刚靠“我们不做监控”的人设圈来几百万用户,四月份就让这群人掏出护照

看,这节奏。

这不是“合规”两个字能解释的

官方措辞足够谨慎。Anthropic说验证数据只用来确认身份,不会用于其他用途,不会拿去训练模型;数据传输和存储都加密,不和第三方共享用于营销。照片和证件不进Anthropic的服务器,而是进Persona的系统——Anthropic说自己只是“数据控制方”,负责设定规则,但实际持有那堆护照扫描件的是别人。

这些话都没错。但它们回避了一个更基本的问题:为什么是现在?为什么是你们?为什么是这种方式?

Anthropic给的触发条件是三个模糊的筐:访问“某些能力”时、“日常平台完整性检查”时、“安全与合规措施”时。哪些能力?哪种用户行为会触发?帮助文档没写,公司也没有回应外界的追问。已经有用户反映,订阅Max套餐的注册流程里就会撞上这道墙。

这个设计很微妙。表面上它是“部分用户、部分场景”,听起来克制;但只要触发条件不透明,它在用户侧的心理体感就是“随时可能被要求”。一个“隐私优先”的产品,此刻在告诉你:我们默认你是可疑的,我们会在某些我们不说清楚的时刻,让你证明自己并非可疑人物。

承诺很仔细,基础设施很粗糙

Anthropic在措辞上是相当仔细。但这些承诺要落地,靠的是Persona。至于Persona,最近两年的剧本是这样写的:2025年10月,Discord通过第三方客服供应商泄露了大约7万张用户为了年龄验证上传的政府证件;再往前,有媒体调查发现,LinkedIn用户走Persona验证的个人信息,可能被分发到多达17家公司。

打开网易新闻 查看精彩图片

换句话说,Persona在这行算是“严肃玩家”,但把护照交给一个中间商这件事本身,在过去几年里一次次证明了它的脆弱性。“加密传输”和“加密保存”这两个词写在合同里,和数据实际不被泄露之间,是有一段不小的距离的。这段距离,通常要等泄露发生时才能被公众准确丈量。

Anthropic今年以来给人的印象一直是“在乎安全和隐私的那一家”。这个人设的核心资产,是用户的信任——而信任这个东西是单向资产,一旦被一次性交易掉(比如一张被泄露的护照扫描件配一张自拍),就再也长不回来。

真正被关上的门

除此之外,这条政策还有一层影响,是关于覆盖范围。Anthropic并不在全球所有市场提供正式服务,在例如中国这样的“非服务地区”注册的账号,会被平台封禁——这本来就是既定政策。此前,部分用户还能通过付款方式、第三方接入等途径使用Claude。

但一张实体证件加一张实时自拍,这道关是绕不过去的。护照是真的,脸是真的,国籍和签发地信息对不上就是对不上。这实际上意味着,Claude在“非服务地区”的可达性,被压缩到了接近零。那些愿意付费、对Claude使用最深的一部分海外开发者和研究者,会被顺带清理出去。

Anthropic不会公开承认这是目的之一,它会说这是“合规与安全措施”。但从结果看,这道身份验证的门槛,挡住的正是那些最在乎产品、也最愿意为产品付费的边缘用户,而真正想用AI做坏事的、有实际伪造能力的主体,这道关拦不住多少。

这是身份验证系统的老问题了——你能拦住的,往往是你最不想拦的那群人。

一个更大的命题

二月份那场用户迁移,很多人当时读出的故事是:“市场奖励了坚持原则的公司”。Anthropic拒绝让Claude用于监控,然后它的用户用真金白银投了票。这是一个教科书级别的叙事——价值观和商业成功在理想情况下是可以同频的。

但两个月后再看,这个故事开始显得复杂。拒绝五角大楼的是Anthropic,要求用户交护照自拍的也是Anthropic。这说明,一家公司对政府说“不”的能力,和它对用户说“是”的能力,不是一回事。

Anthropic可以在一笔两亿美元的合同前站住立场,这值得尊重;但它同时也可以在一个周二的下午,悄悄改一页帮助文档,把几百万刚迁移过来的用户推向一个他们原本以为不会遇到的门槛。前者需要公司层面的勇气,后者只需要一个产品决策。

更值得警惕的其实是海外评论者已经指出的一个趋势——这次Anthropic是“自愿的”,但AI实名制相关的监管正在全球各地加速形成。“AI使用绑定身份”这类规则一旦在更多司法管辖区落地,今天的“自愿KYC”就会变成明天的“行业标准”,再变成后天的“你别无选择”。

打开网易新闻 查看精彩图片

Anthropic现在做的,是在监管还没到之前,自己先把这条路踩出来。它试图验证一件事:让用户交护照这件事,是可以做的,天塌不下来。

这可能是整件事里最让人不舒服的部分。不是因为它做错了什么——在法规层面,它什么都没错——而是因为它让一条原本需要监管才能推过去的线,变成了一个产品页面的小改动。

二月份那群因为监控担忧跑过来的用户,他们原本想投的是“一个不把我当作嫌疑人的AI”。现在他们要重新想的问题是:在AI这件事上,我真的有地方可去吗。