模力方舟平台现已上线来自月之暗面(Moonshot AI)发布的全新开源旗舰模型Kimi K2.5。
Kimi K2.5在原有 Kimi K2 的基础上,进行了大规模继续预训练,覆盖约 15 万亿(15T)图像和文本混合 token,构建了一个原生多模态、具备智能体调度能力的基础模型。
K2.5 不再是单纯的对话模型,它内建视觉理解机制,能够同时处理高精度图像、视频、布局、复杂文档甚至 UI 截图等输入,并与语言编码紧密交互。
K2.5 可将图像或视频内容转换为结构化的代码输出,支持完整的前端生成、图像调试与组件生成等任务,是开源阵营中少数具备「视觉驱动代码生成」能力的模型之一。
Agent Swarm:自组织智能体集群并行执行
Kimi K2.5引入了全新的 Agent Swarm(智能体集群)机制。不同于传统单 Agent 或静态拆分子任务的方法,K2.5 能够:
自动分析复杂指令并拆分成并行子任务
调度最多 100 个子智能体(sub‑agents) 同时工作
在内部管理最多 1500 次工具调用(tool calls)
与单一智能体执行相比,整体执行时间可缩短 约 4.5 倍
这一过程无需用户手动指定子智能体或完整流程,智能体集群在模型内部自动创建和协作调度,这是 K2.5 相较前代的关键架构性突破之一。
Agent Swarm 是怎么训练出来的?
Kimi K2.5的 Agent Swarm 能力并非依赖固定规则或流程模板,而是通过一种名为 Parallel-Agent Reinforcement Learning(并行智能体强化学习) 的方式训练而成。
训练中,模型自身作为协调器,在模拟环境中动态生成子智能体、执行并发子任务,并根据任务完成质量与效率获得奖励反馈。为避免退化为串行执行,训练采用阶段式奖励机制:早期鼓励更高并发,后期强调最终完成质量。
随着训练推进,模型能自主学会在准确性和并发性之间动态取舍,实现真正的任务分解与协作执行。
编码与视觉联合能力明显提升
K2.5 能根据简单自然语言指令生成完整前端界面,包括丰富布局和动画效果;能分析视频或图像内容并自动构建对应代码实现。
这一协同能力源于大规模图文联合训练,使视觉理解和代码生成过程语义一致、结构对齐。这使得复杂软件工程、UI 重构、图像到代码等现实场景下的生产力提升更显著。
向专业级任务延伸:办公与生产力场景
K2.5 的智能体群体机制和多模态理解能力也显著扩展了其在办公场景的落地潜力:
支持在自然语言提示下自动生成 Word、Excel、PDF、幻灯片等结构化办公成果
可完成从表格建模、公式书写到长文写作的完整链路
在官方内部 Office Benchmark 与多步 Agent Benchmark 中,K2.5 相比前代模型分别提升 59.3%、24.3%
官方评测数据显示,Kimi K2.5 在多个关键任务上已对标甚至超越封闭模型,尤其在智能体调度、编码任务、多模态理解等方面展现出极高性价比:
Agent 能力 :在 HLE-Full、BrowseComp、DeepSearchQA 三项 Agent benchmark 上大幅领先
多模态理解 :在 MathVision、OmniDocBench、VideoMMMU 等任务中展现领先图文理解与视频分析能力
编码能力 :在 SWE-Bench Verified 和 Multilingual 双任务中性能与 GPT-4 Turbo 接近
同时,Kimi K2.5 的执行成本远低于同类商用模型,结合「Agent Swarm」机制下的并发效率提升,在三项主力 benchmark 中分别实现:
HLE:节省 10.1×
BrowseComp:节省 2.1×
SWE-Verified:节省 3.1×
Kimi K2.5已正式上线模力方舟,无论是探索前沿 Agent 技术,还是在真实生产环境中部署高效多模态模型,模力方舟都提供了开箱即用的接口与多种资源支持。
访问入口:
https://moark.com/serverless-api?model=Kimi-K2.5
热门跟贴