大多数AI视频工具的逻辑很简单:输入一段提示词,输出几秒画面。LTX 2.5的做法完全不同——它把视频创作当成完整的制作流程,而非单次生成事件。从剧本、分镜到角色一致性、镜头调度和音频,整个管线在一个环境里完成。

这款由Lightricks(Facetune的母公司)开发的平台,核心差异在于"分镜驱动"的工作流。你不是在生成孤立片段,而是在搭建完整的故事板:逐场构建场景、控制角色、调度镜头运动,最终导出成片——全部在浏览器内完成。

打开网易新闻 查看精彩图片

技术架构上,LTX 2.5采用多引擎设计,整合了Lightricks自研的开源LTX-2模型、Google DeepMind的Veo 3.1,以及Black Forest Labs的FLUX.2 Pro。每个场景可以按需调用最适合的模型。

三个功能点值得单独拎出:

第一,Elements角色系统。 上传参考图或从预设库选择角色,系统会在整个项目中保持外观一致。这解决了单代工具的最大痛点:镜头切换后人物变脸、场景穿帮。

第二,帧级镜头控制。 时间轴编辑器支持推拉摇移、变焦、轨道运动等指令,可以精确到具体帧指定运镜方式。

第三,开源内核。 LTX-2的模型权重和训练框架以开放许可发布,这是目前少数拥有开源核心的生产级AI视频平台。

定价方面,平台提供免费试用层,Pro版具体价格需至ltx.studio查询。通过Veo 3集成,还支持文本转语音、自动音效生成和唇形同步。

与主流工具的对比结论很清晰:Sora擅长单镜头的物理模拟,Runway Gen-4胜在单片段的编辑深度,但两者都没有分镜到成片的工作流。如果你的需求是多场景叙事、角色一致性和正规制作管线,LTX 2.5是目前唯一选项——且不限价位。