打开网易新闻 查看精彩图片

随着大模型步入规模化应用深水区,日益高昂的推理成本与延迟已成为掣肘产业落地的核心瓶颈。在 “降本增效” 的行业共识下,从量化、剪枝到模型蒸馏,各类压缩技术竞相涌现,但往往难以兼顾性能损耗与通用性。

在此背景下,投机采样作为一种 “另辟蹊径” 的推理加速范式,正凭借其近乎无损的加速效果成为业界新宠。腾讯混元近日升级的AngelSlim 训练框架,首次将这一技术的潜力拓展至 LLM、VLM 及语音的全模态场景,实现了从 “可加速” 到 “善加速” 的关键跃迁。其核心在于独创的Eagle3 训练架构,通过让小模型学会 “前瞻性” 地为大模型起草多步候选 token,再由大模型并行验证,一举将大模型解码阶段的算力冗余转化为提速动能,实测最高可带来1.9 倍的推理速度飙升。这不仅是一次技术升级,更是对下一代高效推理基础设施的重要定义,为多模态 AI 应用的实时化、普惠化铺平了道路。

一、AngelSlim + 投机采样

投机采样是一种通过小模型多步预测 + 大模型一步验证的推理加速技术,其核心思想是:使用一个轻量级的草稿模型生成多个候选 token,由目标模型对候选结果进行并行验证是否接受,以此来并行解码加速,在有效利用大模型解码阶段的算力冗余,提升推理吞吐并降低单请求延迟。

AngelSlim 是一款集成了包括量化、投机采样等压缩算法,面向全模态的大模型压缩算法工具包。此次对投机采样训练进行了重磅升级,支持了大语言、多模态理解、语音等不同模态大模型投机采样草稿模型训练能力。

AngelSlim 以 “Eagle3 训练即部署” 为设计核心,提供从数据处理、模型封装到投机采样算法训练的完整链路,帮助开发在不侵入现有模型结构的前提下,显著降低推理时延与计算成本,各模态、各类大模型加速可达 1.4-1.9 倍。

打开网易新闻 查看精彩图片

Github 开源地址:https://github.com/Tencent/AngelSlim

二、核心亮点

1. 覆盖从文生文、多模态理解到语音的全模态投机采样训练

AngelSlim 是一个从设计之初就支持全模态的投机采样训练框架,通过统一的训练接口,不同模态之间共享核心算法与工程能力,避免重复造轮子。

2. 面向部署

AngelSlim 并不止步于 “能训”,而是强调训出来就能用。AngelSlim 训练产出的模型可以无缝用于 vLLM/Sglang 等框架进行部署。

三、核心训练组件解析

打开网易新闻 查看精彩图片

1. 数据处理模块

打开网易新闻 查看精彩图片

数据处理模块为投机采样训练多个模态提供稳定、可复用的数据基础,主要包括:

a. 数据重采样:针对分布外数据集重新采样,生成分布内数据集用以训练。

b. 数据预处理:

i. 统一不同模态的数据格式,将文本、图像、音频等输入标准化处理成 token ids 和 loss mask。

ii. 草稿模型裁剪词表的映射。

c. 隐藏特征提取:根据处理好的 token ids 获取对应的隐藏特征。

打开网易新闻 查看精彩图片

2. 模型模块

模型模块是 AngelSlim 实现高度扩展性的关键。

a. 统一的 TargetModel 接口

i.AngelSlim 提供统一的 TargetModel 接口,包括模型加载与权重管理、前向计算、中间层 / 隐状态特征提取等抽象方法;

b. 低成本扩展新的模型后端

ii. 对于新的模型架构或后端,用户只需实现 TargetModel 中定义的抽象方法即可完成模型注册并接入训练流程,无需修改训练器或核心算法代码。这一设计极大降低了对新模型、新模态的适配成本。

打开网易新闻 查看精彩图片

3. 训练器模块

a. 训练器针对 Eagle3 算法特点设计了两种训练模式:在线训练和离线训练。在线与离线训练的区别在于是否预先生成并存好全量数据的 hidden states。在线训练适合小尺寸模型或显存足够的场景,离线训练适合大尺寸模型、低显存高磁盘空间机器。

b. 训练器实现封装了 Eagle3 等投机采样算法训练的关键逻辑:

i. 训练时测试(training-time-test):训练时模拟 Eagle3 模型多步生成过程,让 Eagle3 模型看到并学习使用自己的预测。

c. 训练器原生支持断点续训能力,完整保存并恢复:

i. 草稿模型参数

ii.Optimizer/ LR Scheduler 状态以及训练进度

四、实践与部署

1. 快速开始

当安装好 AngelSlim 后,进入 AngelSlim 根目录按照如下命令可以快速开始 Eagle3 的训练:

# 启动vLLM 服务

bash scripts/speculative/run_vllm_server.sh

# 生成训练数据

bash scripts/speculative/generate_data_for_target_model.sh

# 开始在线训练

bash scripts/speculative/train_eagle3_online.sh

其中前两条命令是准备数据,对训练数据进行重采样,生成目标模型分布内的数据。这一步是可选项,如果训练数据已经是来自目标模型的 SFT 数据或自身生成的数据,这一步可跳过。对 Eagle3 模型进行训练直接执行最后一条命令即可,更多进阶的使用指南可以参见我们的文档。

我们提供了全面的多模态模型 Eagle3 训练与部署指南,支持 LLM / VLM / Audio (ASR & TTS) 模型。

详见:https://angelslim.readthedocs.io/zh-cn/latest/features/speculative_decoding/eagle/eagle.html

2.AngelSlim 训练模型的加速表现

我们使用 vLLM 在代码、数学、指令跟随、文本生成、多模态理解等任务上评测了 AngelSlim 所训练的 Eagle3 模型,设置 num_speculative_tokens=2 or 4 下我们所训的模型接收长度可达 1.8-3.5,最高加速可达 1.4-1.9 倍。

打开网易新闻 查看精彩图片

3. 代码和模型链接

  • AngelSlim 代码 Github 开源仓库:https://github.com/Tencent/AngelSlim
  • Hugging-Face Eagle3 模型与权重:https://huggingface.co/collections/AngelSlim/eagle3

五、未来计划

在未来规划中,我们将从工具与算法两个层面持续推进投机采样能力演进:工具方面,计划支持基于 vLLM 的离线 hidden states 生成,以进一步降低数据构建与训练成本,并通过系统性的训练加速优化提升整体训练效率;算法创新方面,将探索多模态理解与语音输入信息在 Eagle3 模型中的深度融合,统一建模文本、视觉与语音特征,拓展投机采样在全模态场景下的适用性与加速潜力。