最近行业里传着一件事,美团京东几家大厂开始明令禁止员工使用外部大模型,内部文件写得很正式,理由是信息安全。
与此同时,字节跳动在鼓励员工用。
这个对比,本身就是一个很好的行业观察样本。
先说说"安全"这个理由
禁用的大厂,主要针对的是开源模型,尤其是竞对的开源大模型。
但如果真的是出于信息安全考虑,这个逻辑有点说不通。
今天真正被程序员和产品经理重度依赖的,其实不是开源模型,是Claude、GPT这类闭源付费产品。这些产品清一色是海外公司运营的,数据出境是实打实的,安全风险比开源模型只高不低。但没见哪家大厂在禁令里把这些也一并封掉。
所以这个"安全",保护的可能不是数据,而是别的什么。
至于自建开源模型替代——这个解法的前提是,自建开源模型的效率能接近闭源付费产品。
去问任何一个用Claude写过代码的工程师,他愿不愿意切回来用开源模型,哪怕后者是免费的。
答案你已经知道了。
效率是有记忆的。用过好的,很难接受将就。强制将就,只会让人养成"工作用将就的,私下用真正好的"这个习惯。
所以这件事真正有意思的地方在别处
禁令本身不重要,禁令背后的动作才重要。
这几家大厂在封掉外部模型的同时,都在加速推进一件事:把AI能力私有化部署到内部。自建模型、自建平台、自建数据通道。
然后鼓励自己的员工猛!烈!使!用!
这个动作,才是值得认真看的方向判断。
企业级软件走到今天,有一个悬而未决的问题:为什么SaaS在中国企业市场始终没能真正跑通?原因很多,但有一条根本的——用的起来的企业,根本不愿意把核心数据和核心流程交给外部系统托管。数据主权、安全边界、定制化需求,这些东西始终是SaaS天花板上的那根钉子。
AI私有化部署,某种程度上是在重新回答这个问题。
而且这一次,有三件事同时发生了变化:
第一,自建的门槛真的低了。 过去企业想自建应用能力,光是部署就能把IT团队压垮。今天的AI Infra产品已经把这层复杂度封装掉了,企业不需要懂模型,只需要懂自己的业务。
第二,数据真的可以只在内部流转了。 私有化部署意味着输入输出全程不出机房,这不是理论上的安全承诺,是物理隔离。这对金融、医疗、政务、央国企来说,是从"不敢用AI"到"可以用AI"的临界点。
第三,AI开始真正介入决策和组织。 当AI跑在企业内部,吃的是企业自己的数据,它能做的事就不只是写代码、生成文案了——它能看到流程、看到人、看到决策链路,开始产生真正的组织价值。这个价值,是任何外部SaaS都给不了的。
这三件事叠加在一起,意味着一件事:SaaS那条路,AI时代的企业不打算再走一遍了。
那AI Infra的机会在哪
这是这篇文章我最想说的部分。
AI Infra现在很热,但大多数人谈AI Infra,谈的还是算力、是模型、是部署架构。这些当然重要,但这不是AI Infra真正的竞争终点。
真正的竞争,在数据和行为这两层。
数据这层——企业几十年积累的文档、流程、决策记录,是真正有价值的私有资产。哪家AI Infra能把这些数据安全地向量化、结构化、喂给私有模型,帮企业把"沉睡的历史"变成"可调用的智能",就先拿到了最深的客户绑定。
而至于行为这层,员工每天跟AI的交互本身就是数据——问什么、怎么问、接受什么、拒绝什么。这是企业认知模式的动态外化。谁能把这一层数据沉淀下来并反哺给企业私有模型,就在帮企业建造一个越用越聪明、越来越难以替换的系统。
这才是AI Infra的价值所在——模型跑得快不重要,数据和行为的飞轮转得快才重要。
帮企业提效是入场券,做好安全是及格线,把数据和行为飞轮转起来才是真正的壁垒。
能同时做到这三件事的AI Infra产品,才算真正赢了这一局。
大厂的禁令,无意中做了一件好事:它让所有企业意识到,AI时代的数据主权比AI能力本身更值钱。
这个认知一旦形成,私有化部署就不是一个选项了,是一个终局。
字节鼓励员工用,是因为它有自己的模型生态。其他几家选择封禁,是因为它们也看到了这个终局,只是解法还没想清楚。
但不管解法对不对,方向判断是一致的——企业AI,最终要跑在自己的地盘上。
股票买什么你知道了?
热门跟贴