一家AI公司同时在做两件事:起诉特朗普政府,又向它汇报自家最危险的模型。这不是精神分裂,而是新战场上的生存法则。
上周,Anthropic发布了Mythos——一个因网络安全能力过强而被锁在保险箱里的模型。本周,联合创始人杰克·克拉克(Jack Clark)亲口证实:公司向特朗普政府做了详细汇报。此时距离Anthropic起诉美国国防部,才过去不到两个月。
「狭窄的合同纠纷」背后
今年3月,美国国防部将Anthropic列入供应链风险名单。导火索是一场关于AI系统使用权限的拉锯战:军方想要无限制访问,用于大规模监控美国公民和全自动武器;Anthropic拒绝了。最终,OpenAI拿下了这笔订单。
但克拉克在Semafor世界经济峰会上给这件事定了调——「这只是个狭窄的合同纠纷」。他的原话更直接:「我们的立场是,政府必须知道这些东西,我们必须找到新方式,让政府与正在制造真正革命性经济产品的私营部门合作。」
翻译一下:官司要打,但门不能关。
这种「对抗性合作」的姿态,在硅谷越来越常见。不同的是,Anthropic把分寸感拿捏得更精细。一边用诉讼划定红线,一边用汇报换取信任。克拉克明确表示:「我们和他们谈了Mythos,下一代模型也会谈。」
为什么偏偏是Mythos
Mythos的特殊性在于它的「不发布」。Anthropic公开承认,这个模型的网络安全能力强到不能交给公众。这在行业里是极罕见的表态——通常公司会强调安全测试通过,而非反向证明危险。
但危险本身成了谈判筹码。
据上周报道,特朗普官员正在推动摩根大通、高盛、花旗、美国银行、摩根士丹利等华尔街巨头测试Mythos。这不是普通的产品试用,而是一场由政府背书的「可控暴露」实验。银行拿到的是过滤后的接口,政府拿到的是模型能力的完整评估。
克拉克领导的公共利益团队,本质上在做一件事:把技术风险转化为政策语言。当他说「政府必须知道这些东西」时,潜台词是「只有我们知道怎么解释这些东西」。这是AI公司新的权力来源——不是算力垄断,而是风险解释权。
就业恐慌的「降级处理」
峰会上另一个话题是AI对就业的冲击。这里出现了Anthropic内部的微妙分歧。
CEO达里奥·阿莫迪(Dario Amodei)此前警告,AI可能将失业率推到大萧条水平。他的判断基于一个假设:AI能力提升速度会远超预期。
克拉克领导的团队给出了更克制的评估。他们目前只观察到「部分行业早期研究生就业的潜在疲软」。作为经济学家团队的负责人,他承认公司已为大规模就业变动做好准备,但数据尚未支持极端预测。
这种「降级处理」很有意思。阿莫迪的警告是面向公众的压力测试,克拉克的收敛是面向政策的稳定剂。同一套叙事,两种剂量。
被追问大学生该选什么专业时,克拉克拒绝给出具体清单。他只提了一个标准:「涉及跨学科综合和分析性思考的领域。」这个答案的狡猾之处在于,它既拥抱AI(需要人类做整合),又回避了AI(不指定任何具体技能)。
新模型的政治经济学
Mythos事件揭示了一个正在成形的规则:最危险的AI模型,正在变成政府与科技公司之间的「特权信息」。
公众看不到Mythos,但华尔街银行和政府官员可以。这种分层访问不是技术决定的,而是政治协商的结果。Anthropic通过主动汇报,把自己嵌入决策流程;政府通过控制测试范围,获得对前沿能力的提前感知。
克拉克说的「新合作方式」,本质是建立一种非正式监管框架。正式的AI安全法规还在辩论中,但Mythos的汇报机制已经在运转。这让人想起核时代的「知情通报」传统——大国之间不共享技术,但共享风险信号。
区别在于,这次的一方是主权国家,另一方是私营公司。Anthropic的诉讼和汇报,是在同时争取两种合法性:法律上的程序正义,和政治上的信任资产。
更值得玩味的是时机。特朗普政府正在快速重组科技政策,从关税到出口管制都在变动。Anthropic选择此时主动披露汇报关系,是在不确定性中锚定自己的位置。克拉克的表态几乎是一种公开承诺:无论政府怎么变,我们的沟通渠道不变。
OpenAI的镜像选择
同一战场上,OpenAI走了另一条路。
五角大楼的合同最终落入OpenAI手中,代价是接受军方的使用条款。Anthropic选择了拒绝+诉讼+汇报的三步走,OpenAI选择了直接签约。两种策略没有绝对的高下,但反映了不同的风险偏好。
OpenAI赌的是「深度绑定」,Anthropic赌的是「弹性距离」。前者获得订单和现金流,后者保留对使用场景的否决权。克拉克强调的「国家安全的方方面面」,实际上是为这种否决权预留的谈判空间。
一个细节:报道提到OpenAI赢得交易时,用了「instead」(取而代之)。这个词暗示了五角大楼的偏好顺序——先找Anthropic,被拒后转向OpenAI。这意味着Anthropic的「拒绝」本身,已经改变了市场结构。即使没拿到合同,它也设定了门槛。
模型不发布,影响力却更大
Mythos的「不发布」策略,可能是AI产品化的新范式。
传统逻辑是:模型越强大,越要快速商业化变现。Anthropic反其道而行——模型越危险,越要控制流通范围。这不是放弃商业机会,而是转换价值形态。Mythos的价值不在于API调用量,而在于它作为「参考标准」的地位。
政府用Mythos校准监管预期,银行用Mythos测试防御边界,竞争对手用Mythos调整研发节奏。一个不公开的模型,反而成了行业共识的隐形锚点。
克拉克说的「下一代模型也会谈」,暗示这种策略会持续。Anthropic正在建立一种「预告片经济学」:只展示足够引发关注的信息,但不释放完整产品。关注本身成为资源,用于换取政策影响力和合作伙伴的优先接入权。
这种模式的风险同样明显。如果「危险」成为营销话术,真正的安全评估会被稀释。如果政府依赖单一公司的风险通报,监督能力会被俘获。克拉克的「狭窄合同纠纷」论调,某种程度上已经展示了这种风险——将结构性冲突淡化为程序性摩擦。
当AI公司成为情报节点
回到最初的问题:为什么一边起诉一边汇报?
答案可能在于Anthropic对自身角色的重新定位。它不再只是模型提供商,而是试图成为AI风险的情报节点。诉讼维护的是独立性,汇报提供的是不可替代性。两者结合,塑造的是一种「受信任的批评者」身份。
这种身份在监管真空中尤其有价值。当正式规则缺位时,谁能定义「危险」、谁能通报「风险」,谁就掌握了事实上的标准制定权。Mythos的汇报机制,是Anthropic参与标准制定的入场券。
克拉克提到的「革命性经济产品」与「国家安全考量」之间的张力,不会消失。但Anthropic的应对方式表明,科技公司正在学习一种新语言:不是对抗或顺从的二选一,而是在对抗中建立顺从的渠道,在顺从中保留对抗的选项。
对于25-40岁的科技从业者,这个案例的真正启示或许是:AI产品的竞争,已经从模型能力扩展到「政策接口设计」。你的模型有多强,取决于你能让多少关键决策者相信它很强——或很危险。Mythos没有公开基准测试分数,但它已经通过了最重要的测试:让政府和华尔街同时想要访问它。
如果「不发布」成为顶级模型的默认策略,公众将如何评估AI的真实进展?当风险通报变成特权信息,谁来验证这些通报的准确性?
热门跟贴