最近行业里传着一件事,美团京东几家大厂开始明令禁止员工使用外部大模型,内部文件写得很正式,理由是信息安全。

与此同时,字节跳动在鼓励员工用。

这个对比,本身就是一个很好的行业观察样本。

先说说"安全"这个理由

禁用的大厂,主要针对的是开源模型,尤其是竞对的开源大模型。

但如果真的是出于信息安全考虑,这个逻辑有点说不通。

今天真正被程序员和产品经理重度依赖的,其实不是开源模型,是Claude、GPT这类闭源付费产品。这些产品清一色是海外公司运营的,数据出境是实打实的,安全风险比开源模型只高不低。但没见哪家大厂在禁令里把这些也一并封掉。

所以这个"安全",保护的可能不是数据,而是别的什么。

至于自建开源模型替代——这个解法的前提是,自建开源模型的效率能接近闭源付费产品。

去问任何一个用Claude写过代码的工程师,他愿不愿意切回来用开源模型,哪怕后者是免费的。

答案你已经知道了。

效率是有记忆的。用过好的,很难接受将就。强制将就,只会让人养成"工作用将就的,私下用真正好的"这个习惯。

所以这件事真正有意思的地方在别处

禁令本身不重要,禁令背后的动作才重要。

这几家大厂在封掉外部模型的同时,都在加速推进一件事:把AI能力私有化部署到内部。自建模型、自建平台、自建数据通道。

然后鼓励自己的员工猛!烈!使!用!

这个动作,才是值得认真看的方向判断。

企业级软件走到今天,有一个悬而未决的问题:为什么SaaS在中国企业市场始终没能真正跑通?原因很多,但有一条根本的——用的起来的企业,根本不愿意把核心数据和核心流程交给外部系统托管。数据主权、安全边界、定制化需求,这些东西始终是SaaS天花板上的那根钉子。

AI私有化部署,某种程度上是在重新回答这个问题。

而且这一次,有三件事同时发生了变化:

第一,自建的门槛真的低了。 过去企业想自建应用能力,光是部署就能把IT团队压垮。今天的AI Infra产品已经把这层复杂度封装掉了,企业不需要懂模型,只需要懂自己的业务。

第二,数据真的可以只在内部流转了。 私有化部署意味着输入输出全程不出机房,这不是理论上的安全承诺,是物理隔离。这对金融、医疗、政务、央国企来说,是从"不敢用AI"到"可以用AI"的临界点。

第三,AI开始真正介入决策和组织。 当AI跑在企业内部,吃的是企业自己的数据,它能做的事就不只是写代码、生成文案了——它能看到流程、看到人、看到决策链路,开始产生真正的组织价值。这个价值,是任何外部SaaS都给不了的。

这三件事叠加在一起,意味着一件事:SaaS那条路,AI时代的企业不打算再走一遍了。

那AI Infra的机会在哪

这是这篇文章我最想说的部分。

AI Infra现在很热,但大多数人谈AI Infra,谈的还是算力、是模型、是部署架构。这些当然重要,但这不是AI Infra真正的竞争终点。

真正的竞争,在数据和行为这两层。

数据这层——企业几十年积累的文档、流程、决策记录,是真正有价值的私有资产。哪家AI Infra能把这些数据安全地向量化、结构化、喂给私有模型,帮企业把"沉睡的历史"变成"可调用的智能",就先拿到了最深的客户绑定。

而至于行为这层,员工每天跟AI的交互本身就是数据——问什么、怎么问、接受什么、拒绝什么。这是企业认知模式的动态外化。谁能把这一层数据沉淀下来并反哺给企业私有模型,就在帮企业建造一个越用越聪明、越来越难以替换的系统。

这才是AI Infra的价值所在——模型跑得快不重要,数据和行为的飞轮转得快才重要。

帮企业提效是入场券,做好安全是及格线,把数据和行为飞轮转起来才是真正的壁垒。

能同时做到这三件事的AI Infra产品,才算真正赢了这一局。

大厂的禁令,无意中做了一件好事:它让所有企业意识到,AI时代的数据主权比AI能力本身更值钱。

这个认知一旦形成,私有化部署就不是一个选项了,是一个终局。

字节鼓励员工用,是因为它有自己的模型生态。其他几家选择封禁,是因为它们也看到了这个终局,只是解法还没想清楚。

但不管解法对不对,方向判断是一致的——企业AI,最终要跑在自己的地盘上。

股票买什么你知道了?