当底层算力与网络基础搭建完成,如何让开发者高效复用这些能力?Bedrock生态与Lambda架构的革新,成为算力落地应用的关键桥梁。
“底层算力支撑+上层应用落地”的全栈协同,是亚马逊云科技释放芯片性能优势的核心逻辑。据AWS第一天主论坛披露,其已部署超100万颗Trainium系列最快型号芯片,而Amazon Bedrock平台上的大部分推理任务均由该芯片驱动。
在此次re:Invent 2025大会上,Bedrock的生态集成能力进一步升级,通过新增工具支持、革新无服务器架构、构建向量存储生态三大举措,让开发者能更高效地将底层算力转化为实际应用价值。
1Bedrock工具链扩容:构建模型思考工具执行闭环
Bedrock此次新增的四项关键服务集成,从任务执行、开发适配、安全管控到运维监控形成全流程支撑,大幅降低AI应用构建门槛:
在此次大会上,Bedrock新增多项工具集成,形成"模型思考+工具执行"的闭环能力:
AWS Lambda Tool Calling:实现“模型决策+函数执行”的无缝联动,Bedrock的AI模型可直接触发Lambda函数完成API调用、数据清洗、第三方系统交互等操作,无需额外开发衔接层,快速形成业务闭环。
OpenAI /responses API兼容:提供与OpenAI响应API的原生适配,习惯OpenAI开发范式的开发者无需重构代码即可迁移至Bedrock生态,跨平台集成成本降低60%以上。
AWS Identity and Access Management (IAM) Permission Management
将AWS成熟的身份与访问管理能力深度融入Bedrock,支持按模型、用户、调用场景配置细粒度权限,从根源保障AI应用的合规性与数据安全。
Amazon CloudWatch Observability实时采集Bedrock的请求延迟、调用成功率、错误类型等核心指标,结合可视化仪表盘与智能告警,让开发者精准定位推理性能瓶颈,故障排查效率提升3倍。
2Lambda架构革新:Managed Instances破解无服务器矛盾
作为AWS历史上最具颠覆性的服务之一,Lambda自2014年发布以来已成为现代云架构的核心组件。但传统无服务器模式在专用硬件需求与成本优化上的局限性,迫使部分企业牺牲运维简化优势自行管理基础设施。此次推出的Lambda Managed Instances,彻底解决了这一核心矛盾。
亚马逊云科技Amazon Bedrock产品总监Atul Deo
在大会期间,笔者采访了亚马逊云科技Amazon Bedrock产品总监Atul Deo,他认为,Lambda 最大的价值之一在于抽象了底层基础设施,让开发者只需要专注于业务逻辑。最新发布的Lambda Managed Instances,客户可以自己指定驱动某个 Lambda 函数的底层算力和容量。以前在 Lambda 里,这些容量和吞吐都是由服务自动管理的,客户只需要写代码,不会直接看到背后的实例。现在,通过Lambda Managed Instances,客户可以从一系列 EC2 实例类型中进行选择,用这些实例来承载自己的无服务器函数。
3、向量生态落地:S3 Vectors打通AI数据存储瓶颈
除工具链升级外,AWS还发布了以Amazon S3 Vectors为核心的全链路向量能力生态,覆盖从存储、数据库到AI应用的完整链路,共包含10项支持向量处理的服务。作为此次发布的重点,S3 Vectors首次实现对象存储与向量处理的原生融合,解决了大规模AI应用的向量数据存储成本与访问效率难题。
该服务通过优化的存储架构与索引技术,将向量的上传、存储及查询成本降低最高90%,同时支持数十亿级向量的亚秒级检索。与Bedrock的深度集成,使其可直接为RAG(检索增强生成)应用、语义搜索、多模态模型训练等场景提供向量数据支撑——当Bedrock的模型需要调用外部知识时,可通过Lambda Tool Calling快速访问S3 Vectors中的向量库,结合Trainium3的高带宽内存与低延迟网络,推理响应速度提升2-3倍。
结束语:
AWS通过此次大会传递出清晰信号:AI的下一个阶段,不再是单点技术的比拼,而是“全栈协同”的竞争。从3nm芯片的电路设计,到万亿token模型的训练支持,再到普通开发者能上手的智能体搭建工具,这不仅是AWS自身的战略升级,更定义了AI规模化落地的新范式:让AI从“少数巨头的游戏”,真正变成了所有企业都能参与的“效率革命”,为Agent(智能体)AI的全面普及按下了“加速键”。
本系列报道到此结束,如需其他信息请评论留言。
热门跟贴