上周,一批Claude用户发现界面弹出了陌生提示——上传护照或驾照,再拍张实时自拍,才能继续使用某些功能。这不是钓鱼攻击,是Anthropic官方推出的身份验证系统。
消息传出后,Reddit和X上瞬间炸锅。有人担心生物特征数据被拿去训练模型,有人质疑"某些功能"到底指什么,更多人困惑:一个聊天机器人,为什么需要知道我长什么样?
Anthropic的回应来得很快。官方支持文档解释这是"例行平台完整性检查",与身份验证服务商Persona Identities合作推出,全程"通常不到五分钟"。但用户的焦虑没有消散——当AI公司开始索要政府证件,这究竟是一道安全闸门,还是某种更深层转变的开端?
一、Persona是谁?为什么选这家公司
负责执行这次验证的Persona Identities,在硅谷是个熟悉的名字。Stripe、Robinhood、DoorDash都用过它的服务,核心能力是快速核验政府证件真伪,同时比对活体人脸。
选择第三方而非自建系统,暴露了Anthropic的微妙处境。一方面,身份验证涉及复杂的反欺诈技术和监管合规,外包给专业公司更稳妥;另一方面,这也意味着用户数据会流经另一个实体——尽管Anthropic强调"不会用于训练模型",但数据链条的延长本身就是风险点。
Persona的官网显示,其系统支持全球200多种证件,验证流程包括文档真伪检测、生物特征比对、活体检测三个环节。对Anthropic而言,这套成熟方案能快速覆盖多地区用户,避免自建系统的漫长调试期。
但合作方的专业背景也带来新问题。Persona的客户多为金融科技公司,它们的验证场景是开户、转账、信贷——明确的金融合规需求。而AI平台的使用场景模糊得多,"某些功能"的界定权完全在平台手中。
二、"某些功能"的模糊地带
Anthropic官方声明中的措辞很值得玩味。身份验证针对"特定使用场景"(a few use cases),用户可能在"访问某些功能"(certain capabilities)时遇到验证提示。
具体是哪些功能?公司没有列出清单。这种刻意保留的解释空间,让政策具备了弹性伸缩的可能。今天可能是高风险的代码生成或长文本处理,明天可能扩展到普通对话——边界由平台单方面调整。
这种模糊性在AI行业并非孤例。OpenAI对GPT-4的使用限制同样缺乏透明标准,用户往往在触发风控后才得知规则。但Anthropic的特殊之处在于,它一直以"AI安全先锋"自居,其创始人Dario和Daniela Amodei均来自OpenAI,出走的原因正是对商业化速度过快的担忧。
现在,这家强调"负责任开发"的公司,率先引入了最侵入性的用户识别机制。反差本身构成了一个信号:当AI能力突破某个阈值,身份核验可能从可选项变成基础设施——无论公司价值观如何。
三、自拍验证的真正目的
验证流程中的"实时自拍"环节,是争议最集中的部分。Anthropic明确否认将人脸数据用于模型训练,但用户的疑虑有其技术依据。
现代人脸识别系统提取的是生物特征模板——一组数学向量,而非原始图像。这些模板理论上可以反向重构近似人脸,也可能被用于跨平台身份关联。更现实的担忧是数据留存:验证完成后,原始照片和特征模板保存多久?谁有权访问?
Anthropic的支持文档没有回答这些细节。相比之下,Apple的Face ID从设计之初就强调"数据不出设备",生物特征仅存储在本地安全芯片。云端验证方案天然缺乏这种物理隔离,信任完全建立在公司承诺之上。
「负责任地使用强大技术,始于知道谁在用它。」这是Anthropic官方解释中的核心句子。将身份验证框定为安全叙事,确实符合公众对AI滥用的担忧——深度伪造、诈骗内容、自动化攻击,都需要真实身份作为追溯锚点。
但安全与监控的边界往往模糊。当"知道谁在用它"成为默认前提,匿名使用AI的权利就被悄然取消。这对特定群体影响尤甚:调查记者、政治异见者、家暴受害者,他们的安全恰恰依赖身份的隐匿。
四、监管压力下的 preemptive 合规
时间线提供了另一个解读角度。2024年以来,欧美AI监管框架加速成型。欧盟《人工智能法》将"通用人工智能模型"纳入系统性风险管控,美国各州的深度伪造立法密集出台,联邦层面的AI安全讨论也趋于具体。
在这些监管草案中,"用户身份可追溯"反复出现。无论是内容溯源水印,还是高风险应用的实名门槛,核心逻辑都是让AI行为与真实个人绑定,以便事后追责。
Anthropic此时推出身份验证,可以视为preemptive合规——在强制要求落地前主动布局。这种策略有其商业理性:当监管最终明确,已建立验证体系的公司将拥有合规优势,竞争对手则可能被迫仓促跟进。
但preemptive合规也有代价。它塑造了用户预期,将"查证件才能用AI"正常化为行业标准。一旦成为惯例,后续监管只会在此基础上加码,而非回退。Anthropic作为"安全派"代表的行动,客观上为整个行业定下了基调。
五、信任架构的重新谈判
这件事的本质,是AI平台与用户之间信任条款的改写。早期ChatGPT的注册只需邮箱,Claude甚至一度无需注册即可试用——匿名或伪匿名使用,是互联网服务吸引用户的经典策略。
现在,这个条款正在翻转。AI能力的跃升让平台方认为,匿名特权需要让位于安全考量。用户则被置于接受或离开的二选一境地,没有中间选项。
值得追问的是:验证的覆盖范围会如何扩展?目前Anthropic强调"某些功能",但技术基础设施一旦建成,扩大应用范围的成本极低。从"部分功能需验证"到"全功能需验证",可能只是一个配置开关的距离。
更深层的变化在于数据关系的重构。传统互联网服务中,用户用数据换取免费服务,但数据主要是行为痕迹——点击、停留、偏好。AI时代的新交换是:用真实身份换取算力访问。这是更根本的个人资产,也更难撤回。
六、行业连锁反应的可能性
Anthropic的动作会传导至竞争对手吗?短期看,OpenAI和Google尚未跟进同等强度的身份验证,但它们的政策同样处于动态调整中。
OpenAI在2024年已加强对特定地区的账户审核,要求部分用户提供额外身份证明。Google的Gemini则与Google账户体系深度绑定,间接实现了身份关联。Anthropic的差异化在于,它将验证环节前置到功能访问层,而非账户注册层——这创造了更细粒度的控制可能。
如果"功能级验证"被证明能有效降低滥用投诉和监管风险,其他平台很可能效仿。届时,AI服务的分层结构将更加明显:基础功能保持开放,高级能力需要实名,顶级功能或许还需额外资质审核——类似金融服务的合格投资者认定。
这种分层对开发者和企业用户影响深远。当前许多AI应用建立在API调用之上,如果上游平台引入身份验证,下游产品的用户体验和合规成本都将重构。Anthropic的验证政策是否会延伸至API层面,是值得观察的下一步。
七、用户能做什么
面对这一变化,个体用户的选择空间确实有限。但有几个行动点值得考虑:
首先,审视验证请求的具体场景。如果仅在特定功能触发,可以评估该功能对自己的必要性,决定是否接受交换。如果验证范围无故扩大,保留截图和反馈渠道,作为后续维权的依据。
其次,了解数据处理的细节。Anthropic和Persona的隐私政策中,关于生物特征数据的留存期限、删除机制、跨境传输条款,值得逐条阅读。这些枯燥文本决定了你的数据实际风险敞口。
最后,关注替代方案的存在性。开源模型本地部署、去中心化AI服务、坚持匿名的竞争对手——这些选项目前仍有技术门槛,但生态正在成熟。身份验证的强制化,可能意外加速替代方案的采用。
这件事的真正重要性,不在于Anthropic一家公司的政策调整,而在于它揭示了AI行业发展的内在张力:能力越强大,控制越收紧;承诺越美好,验证越侵入。我们正在经历的,是技术民主化叙事与集中化治理现实的碰撞。而护照和自拍,只是这场碰撞的可见症状。
如果你正在使用或考虑使用Claude,现在就去检查账户设置中的隐私选项,阅读完整的身份验证说明——不是因为他们会告诉你全部真相,而是因为知情本身,就是在这个新秩序中保留的少数主动权之一。
热门跟贴