打开网易新闻 查看精彩图片

企业部署的AI代理数量,预计三年内将从现在的数百万暴涨到3000万个。这不是预测,是Gartner去年秋天给数字。问题是:谁来管这群"数字员工"?

Nutanix在芝加哥.NEXT 2026大会上甩出一整套平台更新,核心就一个字——"leverage"(利用)。不是让你买新硬件,是在现有设备上跑起来。产品管理执行副总裁Thomas Cornely的原话:「客户压力巨大,所有人都在找落地方法。」

代理泛滥:从"能跑"到"敢跑"的鸿沟

代理泛滥:从"能跑"到"敢跑"的鸿沟

副总裁Ketan Shah把现状说得很直白:「代理会爆炸式增长,没错,它们会到处乱跑。不知不觉间,成本就累积起来了。」

这个"乱跑"有多真实?想象一个场景:销售部门用了三个不同的AI工具写邮件,市场部又上了两个做内容生成,IT部门自己搭了一个监控服务器状态的代理。每个都在调用OpenAI、Anthropic或本地模型,token像自来水一样流走。月底账单来了,没人说得清哪笔钱花在哪。

Nutanix的新武器叫AI Gateway。功能拆解成三块:看见谁在跑、管住花多少钱、锁死谁能访问。Shah解释,这玩意儿要插在所有代理和模型端点之间,像高速公路收费站——不是拦车,是记账+安检。

治理层的价值,在于把"事后审计"变成"事中拦截"。

企业现在的痛点不是缺代理,是缺"代理的代理"。Cornely提到一个细节:客户反复问的是"怎么在已有硬件上跑更多",而不是"给我推荐新芯片"。这和NVIDIA那种"买更多GPU"的叙事完全不同。

全栈押注:四个更新方向的底层逻辑

全栈押注:四个更新方向的底层逻辑

这次发布被Shah称为"Nutanix史上最大版本之一"。四个方向值得拆开看:

第一,AI就绪。不是口号,是具体工具链——从模型部署到推理优化,全包在平台里。

第二,统一虚拟机和容器管理。代理跑在哪?可能是K8s容器,也可能是传统VM。Nutanix想让你在同一套界面里管,不用切来切去。

第三,硬件生态扩展。这里有个微妙信号:不绑定特定芯片。AMD、Intel、NVIDIA都能接,甚至包括新兴的AI加速器。Cornely强调的"leverage what you have"在这里落地——客户不用为了跑AI重建数据中心。

第四,大规模分布式管理。代理不会只待在一个机房,可能跨云、跨边缘、跨总部和工厂。Nutanix在赌:混合云架构的天然优势,能接住这波代理碎片化。

平台厂商的胜负手,从"功能清单"转向"治理深度"。

这个判断有数据支撑。Enterprise Strategy Group今年3月的调研显示,67%的企业将"AI治理工具"列为2026年基础设施采购的首要考量,超过了"模型性能"(54%)和"成本优化"(61%)。

生态卡位:为什么现在押治理层

生态卡位:为什么现在押治理层

Nutanix的AI Gateway有个设计细节:支持开放框架。MCP(模型上下文协议)、A2A(代理间通信协议)这些社区标准,原生接入。

这步棋的深意在于——不赌赢家。现在代理框架混战:LangChain、LlamaIndex、微软的AutoGen、谷歌的ADK,各吹各的。Nutanix选择做"管道"而不是"内容",无论上面跑什么框架,网关都能插进去计费+管控。

Shah在采访中提到一个客户场景:某制造业巨头,工厂里跑了200多个独立代理,分别来自四个不同供应商。之前用Excel表格管调用记录,现在通过网关统一视图,token成本下降37%,合规审计时间从两周缩到两天。

治理层的竞争,本质是"信任基础设施"的竞争。

这个定位让Nutanix避开了和云厂商的正面冲突。AWS、Azure、GCP都在推自己的代理服务(Bedrock Agents、Azure AI Agent Service),但企业客户越来越担心"锁定"。Nutanix的卖点是"跨云一致体验"——同样的治理策略,在本地数据中心、AWS、Azure上行为一致。

Cornely的原话:「我们不做模型,不做框架,我们做的是让这些东西在企业环境里能安全、可预测地运行。」

硬件中立:一场关于"旧资产"的博弈

硬件中立:一场关于"旧资产"的博弈

AI基础设施有个隐形门槛:新硬件的采购周期。一台DGX服务器从下单到上架,平均4-6个月。但企业等不起——业务部门这周就要上线客服代理。

Nutanix的解法是把AI负载"降级"到通用硬件。通过软件优化,让现有的Intel Xeon、AMD EPYC服务器也能跑推理任务。不是和GPU比性能,是比"现在就能用"。

这个策略有历史参照。VMware在2000年代靠"服务器虚拟化"吃掉了x86服务器的红利,让一台物理机跑多个虚拟机。Nutanix现在想复刻的,是"AI负载的虚拟化"——把昂贵的GPU资源池化,把便宜的CPU资源利用起来,让代理根据任务复杂度自动选择落脚点。

Shah透露,下一代平台会内置"智能调度":简单查询走本地CPU模型,复杂任务路由到云端GPU,全程对应用层透明。

资源调度的颗粒度,决定了代理经济的可行性。

这里有个技术细节值得注意:Nutanix在.NEXT上宣布支持NVIDIA的NIM微服务,同时也接入了Hugging Face的推理端点。这种"既拥抱封闭生态、又保留开放退路"的做法,是典型的企业级厂商生存术。

竞争格局:谁在做同样的事

竞争格局:谁在做同样的事

代理治理不是新赛道。Databricks去年推出AI Gateway,主打模型路由和成本管控。Cloudflare的AI Gateway走边缘路线,强调低延迟。甚至老牌监控厂商Datadog,也在把APM(应用性能监控)能力延伸到AI代理追踪。

Nutanix的差异化在于"全栈位置"。别人做网关,是SaaS层的一个功能;Nutanix做网关,是从存储、计算、网络到应用层的垂直整合。这意味着更深度的可见性——不仅能看到代理调用了哪个模型,还能看到这次调用占用了多少存储I/O、是否触发了网络瓶颈。

Cornely在采访中打了个比方:「就像你不仅要知道哪辆车超速了,还要知道这条路本身有没有坑。」

这个比喻指向Nutanix的核心资产:超融合基础架构(HCI)时代积累的数据中心"全知视角"。代理只是最新的工作负载类型,而Nutanix认为自己比纯AI厂商更懂"企业环境里的脏活累活"——权限继承、审计日志、备份恢复、灾难切换。

企业AI的落地速度,取决于基础设施的"兼容深度"而非"技术高度"。

一个反直觉的数据:Nutanix的AI相关咨询量,60%来自已有客户,而非新获客。这说明企业首先想在"熟悉的地盘"里试验AI,而不是贸然拥抱新平台。

风险与变量:这套叙事里的裂缝

风险与变量:这套叙事里的裂缝

押注治理层也有代价。AI Gateway的功能复杂度,可能拖累Nutanix引以为傲的"简洁性"。早期测试用户反馈,策略配置界面有17个参数需要手动调优,学习曲线比预期陡峭。

另一个变量是云厂商的反击。AWS在re:Invent 2025已经展示了"代理自动发现"功能,能识别账户内所有Bedrock Agents的调用链。如果云厂商把治理能力下沉到基础设施层,第三方网关的价值会被压缩。

Shah的回应是强调"中立性":「我们不会优先推荐任何模型供应商,成本优化算法对OpenAI和本地Llama一视同仁。」

这个承诺能维持多久,取决于Nutanix的商业模式压力。目前AI Gateway作为平台组件免费包含,但高级功能(如跨云成本预测、合规自动化报告)计划按代理数量收费。定价策略的微妙平衡,会影响客户采用意愿。

Cornely在采访末尾提到一个细节:某零售客户原本计划2026年Q2采购500台GPU服务器,试用AI Gateway后,决定先拿现有200台通用服务器跑起来,把预算挪到模型微调上。

「这才是我们想听到的,」他说,「不是帮我们卖更多硬件,是帮客户把AI真正用起来。」