打开网易新闻 查看精彩图片

始智AI wisemodel.cn社区是源自中国的中立开放的AI开源社区。正在,欢迎加入共同成长。

在大模型领域,随着 o1/R1 系列推理模型的发布,模型训练的重心逐渐从数据驱动的预训练 / 后训练转向奖励驱动的强化学习(Reinforcement Learning, RL)。并且,能够将大规模算力高效利用的 RL infra 的重要性也日益凸显。当前框架对具身智能的支持仍然受限。相比推理大模型这一类纯大脑模型,具身智能领域存在大脑(侧重推理、长程规划,如RoboBrain)、小脑(侧重执行、短程操作,如OpenVLA)及大小脑联合(快慢系统,如pi 0.5)等多样模型。

具身智能除了包含Agentic AI的多步决策属性外,他还有一个独特属性:渲训推一体化。与工具调用智能体、浏览器智能体所交互的仿真器相比,具身仿真器通常需要高效并行物理仿真和3D图形渲染等,因此当前主流仿真器通常采用GPU加速,耦合多步决策带来了算力和显存竞争的新挑战。此背景下,清华大学、北京中关村学院和无问芯穹联合推出了一个面向具身智能的灵活的、可扩展的大规模强化学习框架 RLinf。RLinf已上线始智AI-wisemodel开源社区,欢迎大家前去体验。

打开网易新闻 查看精彩图片

模型地址

https://wisemodel.cn/models/RLinf/RLinf-math-1.5B

https://wisemodel.cn/models/RLinf/RLinf-math-7B

01.

RLinf介绍

RLinf 的 “inf” 不仅代表着 RL “infrastructure”,也代表着 “infinite” scaling,体现了该框架极度灵活的系统设计思想。

RLinf 的系统可以抽象为用户层(统一编程接口)、任务层(多后端集成方案)、执行层(灵活执行模式)、调度层(自动化调度)、通信层(自适应通信)和硬件层(异构硬件)6 大层级。相比其他框架的分离式执行模式,RLinf 提出的混合式执行模式,在具身智能训练场景下实现了超 120% 的系统提速,VLA 模型涨幅 40%-60%。同时,RLinf 高度灵活、可扩展的设计使其可快速应用于其他任务,所训练的 1.5B 和 7B 数学推理大模型在 AIME24、AIME25 和 GPQA-diamond 数据集上取得 SOTA。

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

设计 1:采用基于 Worker 的统一编程接口,利用微执行流实现宏工作流,实现一套代码驱动多种执行模式

当前已有强化学习框架通常采用两种执行模式:共享式(所有卡跑同一个组件) 和分离式(不同的卡分配不同的组件)。然而,这两种模式在具身智能 “渲训推一体”的特点下都存在局限性。主要是:由于具身智能体多步决策的属性,模型(Actor)要和仿真器(Simulator)频繁交互,而当前框架一方面不支持仿真器状态快速卸载和加载,另一方面若用共享式需要频繁加载卸载组件,切换开销大,严重降低系统效率。

因此,目前已有的框架在这个场景下仅支持分离式训练,但分离式采用 on-policy 算法训练时资源闲置率高,系统气泡比较大。RLinf 针对这一问题,提出了混合式执行模式,如图 4 所示,这种模式兼具分离式和共享式的优势,再配合上细粒度流水设计,使得系统几乎无气泡,显著提升了系统运行效率。

打开网易新闻 查看精彩图片

图 4 : 共享式、分离式和混合式执行模式对比

然而,要想实现一套代码驱动多种执行模式(即无需更改代码,通过配置参数即可实现分离、共享或混合)是不容易的,一种标准的解决方案是构建计算流图,但会导致编程灵活性降低,debug 难度直线上升,所以当前已有框架通常只支持一种模式(分离或者共享),引入新的执行模式需要大量的系统开发。

为此,RLinf 提出了创新的宏工作流到微执行流的映射机制(Macro-to-Micro Flow,M2Flow),实现从组件级而非任务级进行调度。M2Flow 允许用户使用过程式编程方式灵活构建复杂训练流程,解决传统计算流图构建编程灵活性低的问题,同时能够将过程式的训练流程灵活映射到底层不同的执行模式上,为不同的训练流程(如 RLHF、RLVR 等)选择最优执行模式(配合自动调度模块)。

因此,该映射机制兼具过程式编程(Imperative Programming)的灵活性、易用性、易调试性和声明式编程(Declarative Programming)的编译优化能力。具体而言,RLinf 采用基于 Worker 的统一编程接口,允许用户将训练流程中的不同组件,如模拟器、训练推理引擎,封装成不同 Worker,然后通过过程式编程将这些 Worker 串起来形成完整的训练流程。M2Flow 通过细粒度控制微执行流,即控制每个 Worker 的运行 GPU、执行的批大小、执行时机等,实现极度灵活的执行模式。

总结来说,RLinf 使用户能够以高度可适配的方式编排组件(Actor、Critic、Reward、Simulator 等),组件可以放置在任意 GPU 上,并自动配置不同的执行模式,目前支持 3 种执行模式:

共享式(Collocated Mode):用户可以配置组件是否同时常驻于 GPU 内存,或通过卸载 / 重新加载机制交替使用 GPU。

分离式(Disaggregated Mode):组件既可以顺序运行(可能导致 GPU 空闲),也可以以流水线方式执行,从而确保所有 GPU 都处于忙碌状态。

混合式(Hybrid Mode):进一步扩展了灵活性,支持自定义组合不同的放置形式。典型案例是 Generator 和 GPU-based Simulator 执行分离式细粒度流水,二者与 Inference 和 Trainer 执行共享式。

打开网易新闻 查看精彩图片

设计 2: 面向具身智能大小脑不同训练需求,采用全新的低侵入式多后端集成方案,兼顾高效性和易用性

具身智能领域的特点是:大小脑同时存在,且该领域仍处在蓬勃发展期,技术路线尚未收敛。因此为了更好地支持具身智能不同用户(如具身大小脑研究人员)的需求,RLinf 集成了两套后端:

Megatron + SGLang/vLLM:针对已收敛的模型架构(如具身大脑 VLM),支持已适配模型的快速接入,是大规模集群训练的首选模式。在这一模式下,RLinf 也采用了全新的低侵入式训推引擎集成方式,有助于快速集成训推引擎的更新版本(用户可尝试切换 SGLang 版本,方法见说明文档 Advanced Feature 章节),进而能够启用 Megatron 和 SGLang/vLLM 的所有优化能力,如 5D 并行等。

FSDP + Hugging Face:针对未收敛的模型架构(如具身小脑 VLA),支持 Hugging Face 模型开箱即用无需适配,是快速小规模验证的首选模式。这一模式对于算力受限及新手用户比较友好,特别为具身智能从业者打造。

打开网易新闻 查看精彩图片

图 5:RLinf 集成两套后端

同时 RLinf 也支持多项来自一线从业者的刚需,包括 LoRA 训练,断点续训,以及适应不同网速用户的训练可视化(Tensorboard、W&B、SwanLab)等。此外,RLinf 也正在集成 SFT 模块,致力于提供一站式的服务,通过一套代码满足多样化的训练需求。

打开网易新闻 查看精彩图片

设计 3: 设计面向强化学习的自适应通信库和自动化调度模块,提升训练稳定性和系统效率。

1、自适应通信机制:

强化学习存在多个组件,且这些组件之间存在大量的数据交互。灵活、高效的互通信是支撑强化学习框架高效运行的关键,也是框架可扩展性的重要保证。因此,RLinf 特别设计了一套面向强化学习的通信库,其中主要包含四项优化技术:自适应 CUDAIPC/NCCL 通信、负载均衡传输队列、多通道并发通信机制、快速通信重配置。

自适应 CUDAIPC/NCCL 通信:无需用户配置,根据两个互通信组件所在 GPU 自动选择使用 CUDAIPC 通信还是使用 NCCL 通信,即两个组件位于同一个 GPU 上时使用 CUDAIPC,位于不同 GPU 上时使用 NCCL。

负载均衡传输队列:可以根据上一个组件在不同 GPU 上所产生数据量的大小,在发送给下一个组件的不同 GPU 时做数据量负载均衡,使得下一个组件不同 GPU 的计算量接近,提升系统运行效率。

打开网易新闻 查看精彩图片

图 6:负载均衡传输队列

多通道并发通信:使用多 CUDA stream 以及多网络流并发的通信,避免队头阻塞(Head-of-Line Blocking),降低通信延迟。

快速通信重配置:该功能主要面向大规模集群训练,是实现下文秒级动态扩缩的支撑技术之一,可有效解决通信容错和通信调整的问题。

2、自动化调度模块:

大规模强化学习框架的优化目标是尽量减少系统资源闲置。已有框架通常采用人为指定资源配置的方案,依赖于人工经验,容易造成系统资源浪费,RLinf 设计了一套自动调度策略,可以针对用户的训练流以及用户所使用的计算资源,选择最优的执行模式。

具体而言,RLinf 会对各组件做自动化性能分析,获得各组件对资源的使用效率和特征。然后,构建执行模式的搜索空间,该搜索空间描述了强化学习算法各组件对计算资源的分配复用关系,包括 “时分复用”、“空分复用” 以及二者结合的资源分配方案;在这样的建模下,RLinf 的自动化调度不仅支持已有强化学习框架中 “共享式” 和 “分离式” 的典型资源分配方式,还支持二者结合的混合分配方案的建模分析。

最后,基于上述性能分析数据,在该空间中搜索出最优的执行模式。除此之外,该自动调度策略还集成 “秒级在线扩缩容(Online Scaling)” 能力,70B 模型只需 1 秒即可完成 5D 并行动态扩缩,而传统方案需十几秒甚至更久。该功能及相关论文将于 10 月上线开源版本。基于该技术可进一步实现运行时组件间计算资源的动态调度,配合细粒度流水设计,可以在保证算法 on-policy 属性的前提下进一步压缩系统气泡率,且显著提升训练稳定性。

02.

RLinf 性能

与此同时,Pusa V1.0所需的参数更新数比Wan-I2V少10倍以上,这表明Pusa仅仅关注与时间相关的模块,从而保留了基础模型的先验知识。与之相对的,Wan-12V则表现出对基础模型先验知识的破坏。

在应用上,与其他框架相比,RLinf 的特色在于 Vision-Language-Action Models (VLAs)+RL 的支持,为研究人员探索 VLAs+RL 领域提供了良好的基础算法性能及测试平台。RLinf 支持了主流的 CPU-based 和 GPU-based 仿真器(具体平台见说明文档),支持了百余类具身智能任务,集成了主流的具身大模型 OpenVLA、OpenVLA-OFT、Pi 0。

特别地,团队率先实现了对 Pi 0 的大规模强化学习微调,相关算法及论文将在 9 月底发布。在量化指标上,以 Maniskill3(典型的 GPU-based Simulator )为例进行测试,RLinf 采用混合式结合细粒度流水的执行模式。相比其他框架的分离式执行模式,系统效率显著提速 120% 以上(图 7)。

OpenVLA 及 OpenVLA-OFT 在 Maniskill3 自建 25 个任务 [1] 中采用 PPO 算法和适配具身的 GRPO 算法训练后,成功率曲线如图 8 所示,可以看到模型成功率可以从 SFT 后的 30%-50% 提升至 80%-90%,涨幅 40%-50% 以上。

在公开测试平台 LIBERO 的 4 个场景中,OpenVLA-OFT 采用 RLinf 适配具身的 GRPO 算法训练后,平均成功率达到 97.3%,相比 SFT 模型涨幅 62.4%。

团队前序工作曾探讨 RL 和 SFT 对 VLA 泛化性提升的不同之处 [1],RLinf 将研究进一步拓展至大规模场景下,助力探索具身智能领域的 RL Scaling Law。

打开网易新闻 查看精彩图片

图 7:RLinf 在 “渲训推一体化” 任务训练中显著提速 120%+

打开网易新闻 查看精彩图片

图 8:OpenVLA、OpenVLA-OFT 在 Maniskill3 自建 25 个任务中采用 PPO 算法及具身版 GRPO 算法的训练曲线

打开网易新闻 查看精彩图片

表 1:OpenVLA-OFT 在 LIBERO 中采用具身版 GRPO 算法的测评结果

03.

结语

考虑到框架的易用性,RLinf 提供了全面且系统化的使用文档。RLinf 在开发之初的目标就是开源,因此让每一个用户能够理解、使用和修改是设计原则之一,也是一个优秀开源框架必备的属性。团队采用公司级代码开发流程,确保文档内容覆盖从入门到深度开发的各层次需求。此外,RLinf 还提供完整的 API 文档与集成 AI 问答机器人支持,以进一步提升开发体验与支持效率。

RLinf 团队的开发成员具有交叉研究背景,包含从系统到算法到应用的技术全栈,例如系统架构设计、分布式系统、大模型训练推理加速、强化学习、具身智能、智能体等。正是由于这样的交叉背景,使得团队能够从应用需求驱动算法设计,算法指导系统设计,高效系统加速算法迭代,体现了大模型时代下新型科研形态。未来 RLinf 团队也将持续开发和维护,具体 Roadmap 见 Github 网站。 RLinf 项目地址 https://github.com/RLinf/RLinf

最后,诚挚地邀请大家体验 RLinf 框架,并且与我们交流技术观点与潜在合作机会。同时,RLinf 团队持续招聘博士后、博士、硕士、研究员、工程师及实习生,欢迎投递简历,与我们共同推进下一代强化学习基础设施的建设与发展。

联系方式:zoeyuchao@gmail.com, yu-wang@mail.tsinghua.edu.cn

[1] Liu, Jijia, et al. "What can rl bring to vla generalization? an empirical study." arXiv preprint arXiv:2505.19789 (2025).

[2] https://github.com/inclusionAI/AReaL

[3] https://huggingface.co/datasets/inclusionAI/AReaL-boba-Data

编辑丨赵雅鑫

----- END -----

打开网易新闻 查看精彩图片

wisemodel相关:

系列模型:

关于wisemodel更多

1

欢迎持续关注和支持

开源社区建设需要长期坚持和投入,更需要广大用户的积极参与、贡献和维护,欢迎大家加入wisemodel开源社区的志愿者计划和开源共创计划。期待更多开发者将开源成果,包括模型、数据集和代码等发布到 wisemodel.cn 社区,共建中立、开放的AI开源社区生态。欢迎扫码添加wisemodel微信,申请加入wisemodel社群,持续关注wisemodel.cn开源社区动态。

2

欢迎加盟wisemodel开源社区

始智AI wisemodel社区自2023年9月上线以来,逐渐成为影响力日益扩大的中立开放的AI开源社区,为了加快公司发展,我们长期需要技术、运营等人才加盟,技术侧重在AI infra、后端开发,熟悉K8S、模型训练和推理等技术, 以及熟悉开发者生态运营的成员,欢迎感兴趣的朋友加盟,可以通过添加wisemodel微信,或者将简历投递到邮箱:liudaoquan@wisemodel.cn

3

欢迎投稿优质内容

欢迎投稿分享人工智能领域相关的优秀研究成果,鼓励高校实验室、大企业研究团队、个人等,在wisemodel平台上分享各类优质内容,可以是AI领域最新论文解读、最新开源成果介绍,也可以是关于AI技术实践、应用和总结等。投稿可以发邮件到liudaoquan@wisemodel.cn,也可以扫码添加wisemodel微信。

4

关于wisemodel开源社区

始智AI wisemodel.cn开源社区由清华校友总会AI大数据专委会副秘书长刘道全创立,旨在打造和建设中立开放的AI开源创新社区,将打造成“HuggingFace”之外最活跃的AI开源社区,汇聚主要AI开源模型、数据集和代码等,欢迎高校科研院所、大型互联网公司、创新创业企业、广大个人开发者,以及政府部门、学会协会、联盟、基金会等,还有投资机构、科技媒体等,共同参与建设AI开源创新生态。