本期为TechBeat人工智能社区第724期线上Talk。
北京时间11月6日(周四) 20:00,NVIDIA 实习研究员杨帅的Talk将准时在TechBeat人工智能社区开播!
他与大家分享的主题是:LongLive - 实时交互式生成长视频,届时他将介绍LongLive,一套可交互、实时的长视频生成方案,支持用户在不断输入文本的同时实时视频生成。
Talk·信息
主题:LongLive - 实时交互式生成长视频
嘉宾:NVIDIA · 实习研究员 - 杨帅
时间:北京时间11月6日(周四) 20:00
地点:TechBeat人工智能社区
http://www.techbeat.net/
Talk·介绍
长视频生成需在分钟级尺度保持视觉一致与语义连贯,而现有扩散模型因双向注意力导致推理延迟高;因果自回归(AR)模型虽可 KV-Cache 加速,却受限于“训短测长”带来的漂移与误差累积。
为此,我们开源了LongLive,一套可交互、实时的长视频生成方案。支持用户在不断输入文本的同时实时视频生成。单卡H100生成速度20.7 FPS,最长 240s;并提供量化版本。训练方面,LongLive可将SOTA的短视频生成模型(如Wan)快速微调为长视频模型。
Talk大纲
1. 长视频生成的效率与质量矛盾;交互式、流式换Prompt的一致性难题
2. 框架概览
LongLive 帧级自回归(AR)+ 因果注意力;训练与推理对齐(train-long-test-long)
3. 关键技术 KV-recache
随新Prompt刷新缓存,平滑切换 Streaming Long Tuning 短窗注意力 + Frame Sink:兼顾长程一致与高效
4. 实验
1.3B 短片基座 → 分钟级长视频微调;32 GPU-days 完成 单卡 H100 实时 20.7 FPS;最长 240s;INT8 推理质量仅轻微下降 VBench(短/长)表现强;实时交互演示与多场景案例
Talk·预习资料
论文链接: https://arxiv.org/abs/2509.22622 代码链接: https://github.com/NVlabs/LongLive 项目主页: https://nvlabs.github.io/LongLive/
Talk·提问交流
在Talk界面下的【交流区】参与互动!留下你的打call和问题,和更多小伙伴们共同讨论,被讲者直接翻牌解答!
你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!
Talk·嘉宾介绍
杨帅
NVIDIA · 实习研究员
杨帅是香港科技大学广州的博士研究生,师从陈颖聪教授,研究重点是高效深度学习。相关成果已发表在ICCV,ICLR,CVPR,ECCV等国际顶级会议,并在开源社区作出有影响力的贡献 — 如 SEED-Story、LongLive 等均获得广泛关注。
目前在 NVIDIA Research 从事高效生成模型相关研究,亦曾在腾讯 ARC、SmartMore、商汤等拥有实践经验。
个人主页: https://www.techbeat.net/grzytrkj?id=38859
-The End-
如果你也想成为讲者
自荐 / 推荐
单人Talk | 团队专场 | 录播or直播 | 闭门交流
多种方式任你选择!
推荐讲者成功也有奖励哦~
关于TechBeat人工智能社区
TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。
我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。
期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!
更多详细介绍>>
预约本期Talk
热门跟贴