企业做AI智能体,卡在"要控制"和"怕麻烦"之间。管模型、调成本、保合规,样样都要自己搭——直到有人把这条路跑通了。
亚马逊云科技最近放出一套完整方案:用Strands Agents SDK(开源智能体开发工具包)对接SageMaker AI(亚马逊云科技的机器学习托管服务),再串上MLflow(机器学习生命周期管理平台)做追踪。核心卖点就一个——代码量压到最低,控制权留在手里。
Strands是什么来头
这是个开源SDK,走"模型驱动"路线。开发者只需要凑齐三样东西:一个模型、一段系统提示词、一组工具。Strands自己处理了智能体的运行逻辑。
代码能短到什么程度?官方示例里,创建一个能查国际空间站位置的智能体,核心代码不到10行。模型用的Claude 4.5 Sonnet,工具用的HTTP请求,Strands内置的strands-agent-tools已经打包好了常用工具集。
Strands的模型供应商列表里,Amazon SageMaker AI是正式选项之一。这意味着企业可以把自托管的模型接进来,而不是只能调用Bedrock(亚马逊云科技的托管基础模型服务)上的现成API。
SageMaker AI端点 vs Bedrock:控制权换复杂度
Bedrock的问题是"太托管"——方便,但企业插不进去手。SageMaker AI端点反着来:计算资源、扩缩容行为、基础设施放哪,全由企业自己定。
具体能控制什么?原文列了五项:性能调优的精确度、大规模成本优化、合规与数据驻留、模型选择、网络配置与现有安全架构的集成。代价是,企业得自己管运维层——但SageMaker AI保留了AWS的托管运营层,相当于把"必须自己造的轮子"减到最少。
部署路径也明确了:SageMaker JumpStart(机器学习模型中心)里选基础模型,一键部署到端点,再拿Strands Agents SDK接进来。JumpStart的价值是预置了质量和责任指标,不用自己从头测模型。
生产级能力:追踪、A/B测试、持续迭代
玩具demo和 production 的差距,主要在"看不见"的地方。这套方案补了三块:
第一,SageMaker Serverless MLflow做智能体追踪。MLflow在这里是托管能力,实验记录、模型版本、部署管理串成一条线。
第二,多模型变体的A/B测试。同一套智能体架构,可以挂不同模型或不同参数版本,跑对照实验。
第三,用MLflow指标评估智能体表现。不是"能跑就行",而是能量化对比哪个版本更靠谱。
完整的Jupyter notebook代码已经开源在GitHub仓库,从部署到集成到观测,每一步都有对应代码段。
为什么这事值得关注
智能体开发正在分层:底层模型越来越 commoditized(商品化),中间层的编排框架和工具链才是锁客关键。Strands的定位很清晰——不做模型,不做基础设施,专啃"让智能体代码变少"这层。
亚马逊云科技的态度更有意思:Bedrock和SageMaker AI两条线并行,一个卖方便,一个卖控制。企业选哪边,取决于手里有没有运维团队、数据要不要出境、模型要不要微调。Strands Agents SDK成了跨两边的桥梁,同一套代码能接托管API也能接自托管端点。
开源代码+托管基础设施+可选的控制权,这个组合在2024年的智能体工具链里不算独一份,但亚马逊云科技把文档、代码、观测工具打包成完整叙事,降低的是"从demo到生产"的心理门槛。
GitHub仓库的star数和实际企业采用率,会是下一个值得盯的数据点。
热门跟贴