OpenAI、Google、Perplexity获准直接向美国政府提供服务,这件事情中重要的不是政府对AI的采用,更重要的是以什么样的方式,如何提供服务。
最近发生了两件事情,标志着美国政府对AI公司的“驯化”已经开始,合规就是新的护城河,而价值观冲突则是新的出局理由。
第一件事,OpenAI、Google、Perplexity即将获得直接向美国政府提供AI服务的资质。第二件事,以“AI安全”和“宪法AI”为标签的Anthropic,因其对模型使用的道德限制,正与五角大楼陷入僵局,甚至可能被标记为“供应链风险”。
这说明,在国家机器面前,AI公司的技术优势、道德立场和商业模式,都必须经过“政治可用性”的筛选。
美国政府正在用一套“胡萝卜加大棒”的组合拳,重塑AI供应商的格局。胡萝卜是名为FedRAMP的快速合规通道,让“听话”的公司能直接进入政府采购市场;大棒则是“国家安全”和“供应链风险”的帽子,随时可以扣在“不听话”的公司头上。
这不是技术问题,而是权力问题:当AI成为一种战略资源,它的最终使用规则由谁来定义?
FedRAMP(联邦风险和授权管理计划)是美国政府为云服务商制定的统一安全认证标准。过去,任何想给政府提供云服务的公司,都必须经过漫长且昂贵的FedRAMP认证,周期动辄一两年。
这道门槛,催生了像Palantir、Microsoft Azure Government、AWS GovCloud这样的“中间商”或“集成商”。AI模型公司,比如OpenAI,通常只能作为“技术提供方”,把API卖给这些已经获得认证的平台,再由它们打包卖给政府。
在这种模式下,AI公司离政府隔着一层。它们无法完全控制自己的技术如何被部署,也无法直接获取来自政府客户的一手需求和反馈。更重要的是,利润被中间商分走了一大块。
现在,情况变了。
美国政府启动了名为“FedRAMP 20x”的加速计划,旨在将认证周期从几年缩短到几个月。OpenAI、Google和Perplexity正是这一计划的首批受益者。它们申请的“低影响”试点授权一旦获批,就意味着它们可以绕过中间商,直接在自己的云基础设施上为联邦机构托管和运行AI服务。
这不仅仅是商业模式的改变,更是权力结构的重塑。
对于OpenAI和Google而言,直接服务政府意味着它们可以将自己在商业市场的主导地位,无缝延伸到公共部门,形成一个从技术研发到最终交付的闭环。它们不再是单纯的“算法供应商”,而是成为政府数字化基础设施的一部分。
对于Perplexity这样规模较小的公司,获得FedRAMP认证则是一张宝贵的“准入证”,让它有机会在政府细分市场(如情报分析、信息检索)中分一杯羹,这是对其技术和安全能力的巨大背书。
从政府的角度看,直接与模型公司合作,不仅可能降低采购成本,更重要的是获得了更大的控制力和选择权。当政府可以直接从多个“合规供应商”池子里挑选服务时,任何单一供应商的议价能力和影响力都会被削弱。政府不再被少数几个大型集成商捆绑,而是可以根据任务需求,灵活组合来自OpenAI、Google等不同公司的模型能力。
FedRAMP这根“胡萝卜”,筛选出了一批技术过硬、资源雄厚,并且愿意遵循政府游戏规则的头部玩家。它们通过主动拥抱合规,换取了进入这个封闭市场的优先权。
国外的AI有御三家,现在的情况就是少谁谁尴尬。
Anthropic由一群来自OpenAI的前员工创立,他们出走的初衷之一,就是对OpenAI在AI安全和商业化上的路线感到担忧。因此,Anthropic从诞生之日起,就给自己贴上了“安全”、“可控”、“合乎伦理”的标签,其核心技术之一就是所谓的“宪法AI”,即通过一套预设的原则来约束模型的行为,防止其被滥用。
这种理念在商业市场和学术界备受赞誉,但在五角大楼面前,却成了一个致命的障碍。
冲突在于一份价值2亿美元的国防合同。Anthropic的Claude模型通过合作伙伴Palantir的平台,被用于美国军方和情报部门。Anthropic坚持在合同中加入限制性条款,禁止其模型被用于某些特定应用。
在五角大楼看来,这是不可接受的。逻辑很简单:只要是“合法用途”,他们就必须拥有不受限制地使用任何采购工具的权力。战争和国家安全是特殊领域,不能由一个私营公司的“价值观”来指手画脚。
双方的矛盾迅速升级。根据Semafor的报道,在一次例行沟通中,Anthropic的员工向Palantir高管询问其技术在某次军事行动中的具体用途,此举引发了Palantir的警觉,并随即将情况汇报给了五角大楼。五角大楼内部对此的解读是:Anthropic不仅想限制其技术的使用,甚至还想事后审查,这已经触及了国家安全的红线。
随后,五角大楼高级官员公开表态,称“我们的国家要求合作伙伴愿意帮助我们的战士在任何战斗中获胜”,并含蓄地威胁要将Anthropic视为“供应链风险”。这个标签的杀伤力是巨大的。一旦被正式认定,不仅意味着Anthropic将失去所有国防合同,更会波及到它的合作伙伴。
像Palantir这样的防务承包商,如果继续在其平台中使用Anthropic的模型,自己也可能被排除在未来的政府项目之外。
对于Anthropic来说,你可以宣扬你的价值观,但当你的代码要被部署到机密网络和战场上时,你必须放弃最终控制权。任何试图保留这种控制权的努力,都将被视为对国家主权的挑战。
这几件事情放在一起,让我们有机会看到美国政府在采购AI服务时的变化。
首先,AI公司进入政府市场的核心竞争力,正在从单纯的模型性能,扩展到“合规工程能力”和“政治敏感度”的综合体现。FedRAMP认证本身就是一个复杂的工程挑战,它要求公司在架构设计之初就要考虑数据隔离、身份管理、持续监控和自动化审计等一系列安全要求。这不再是写几份安全白皮书就能解决的问题,而是需要将合规要求深度融入到产品开发和运维的每一个环节。对于习惯了快速迭代的互联网公司来说,这是一套完全不同的思维模式。能够快速通过FedRAMP的公司,本身就证明了其工程能力的成熟度和组织管理的严谨性。
中间商和集成商的角色正在被重新定义。像Palantir这样的公司,其价值正在从“转售AI能力”向更难被替代的领域转移。当OpenAI和Google可以直接向政府卖模型时,Palantir的优势就不再是提供模型本身,而是在于其处理高度敏感数据的能力、在战术边缘设备上进行部署的能力,以及将不同来源的AI模型与政府现有复杂系统进行深度集成的能力。简单地做“模型二道贩子”,未来没有出路。
最重要的一点是,AI公司正在被迫进行“政治站队”。Anthropic的案例表明,试图在商业利益和所谓“普世价值观”之间保持中立的幻想已经破灭。在国家安全这个议题上,没有中间地带。要么选择像OpenAI和Google一样,接受政府的规则,成为“体制内”的供应商;要么就像Anthropic一样,坚持自己的原则,但面临被市场驱逐的风险。
OpenAI已经悄悄修改了其使用条款,删除了“禁止用于军事和战争”的明确表述。这是一个信号,表明头部玩家已经做出了自己的选择。
美国政府希望建立的是一个“可控的AI生态系统”。在这个生态里,有一批经过认证、值得信赖的核心供应商,它们在技术上相互竞争,但在遵守规则和服从国家利益上高度一致。任何游离于这个体系之外、试图挑战规则的“异类”,都将被边缘化。
未来几年,我们将看到这场“驯化”的进一步深化。
那个由技术理想主义者主导的、相信代码可以超越政治的时代,可能真的要结束了。在绝对的国家权力面前,再强大的模型,也必须学会低头。
热门跟贴