凌晨两点,某创业公司的工程师刚把自研的Agent系统从LangChain迁出。迁移原因很直接:旧框架像一辆油门和方向盘焊死的车,想换个模型就得重写半套代码。

三天后,OpenAI发布了Agents SDK。这个开源框架的核心设计,恰恰是把「控制逻辑」和「计算后端」拆成两个可插拔的模块。

打开网易新闻 查看精彩图片

正方:解耦派认为这是基础设施的成熟标志

Agents SDK的架构图很清晰。左侧是「Agent Harness(智能体缰绳)」,负责编排、工具调用、安全护栏;右侧是「Compute Layer(计算层)」,可以是OpenAI的GPT-4o、Anthropic的Claude,甚至是本地跑的Llama。

这种分离的直接好处是成本可控。某金融科技团队向The New Stack透露,他们在测试中发现:把推理密集型任务切到DeepSeek-R1,交互类任务留在GPT-4o-mini,月度API支出下降了34%。

更隐蔽的收益是供应商谈判筹码。当你的Agent系统深度绑定某一家模型API,价格调整时只能被动接受。Harness与Compute解耦后,模型切换变成配置文件的修改,而非架构级重构。

OpenAI产品负责人Kevin Weil在发布直播中明确表态:「我们不认为所有任务都适合我们的模型。」这句话的潜台词是——OpenAI想主导的是编排层标准,而非垄断计算层。

反方:警惕派质疑这是生态锁定的变体

批评者的焦点在「默认配置」的杀伤力。Agents SDK的示例代码、文档教程、预置工具集,全部以OpenAI模型为首选。开发者若不做额外配置,会自然流入OpenAI的计费体系。

更深层的风险是数据飞轮。Harness层沉淀的调用模式、工具使用偏好、错误修正记录,会持续优化OpenAI对Agent行为的理解——而这些数据不会流向竞争对手的模型。

某开源社区维护者尖锐指出:「他们开源了缰绳,但缰绳上系着铃铛,每次抖动都在训练OpenAI的马术。」

技术中立性同样存疑。Agents SDK对「函数调用(Function Calling)」的实现,严格遵循OpenAI的API规范。其他模型虽可通过适配层兼容,但延迟和稳定性往往打折。

我的判断:短期看是开发者利好,长期看是标准之争的预演

Agents SDK的发布时机值得玩味。2024年Q4,Anthropic的Claude 3.5 Sonnet在编码Agent场景市占率攀升;Google的Vertex AI Agent Builder开始捆绑云资源销售;开源社区围绕LangGraph和AutoGen的碎片化争吵从未停止。

OpenAI选择此时开源,是用「基础设施 generosity」换取「生态定义权」。这套策略的成败,不取决于代码质量,而取决于多少第三方工具链愿意主动适配其Harness接口。

对25-40岁的技术决策者而言,关键问题不是「用不用」,而是「在哪一层绑定」。我的建议是:积极试用Harness层的编排能力,但把Compute层的模型选择封装成独立服务——让业务代码只认识「推理接口」,不认识「OpenAI」或「Anthropic」。

Agent开发正在从「手搓框架」进入「组装标准件」的阶段。OpenAI这次的开源,加速了这个进程,但也把标准之争的战场,从模型能力转移到了编排协议。下一轮的胜负手,可能是谁能把「缰绳」做成事实标准,同时让「马匹」充分竞争。