得益于 Runway 的 Gen-3 Alpha 模型 即将推出的一组新功能,内容创作者对于其人工智能生成的视频的外观和感受将拥有更多控制权。

该公司在 X(原 Twitter)上通过一篇帖子宣布,从今天起,Gen-3 Alpha Turbo 推出高级相机控制功能。

新的高级相机控制功能拓展了该型号原有的能力。据该公司介绍,有了它,用户能够“在平移时水平移动从而围绕拍摄对象呈弧形移动 ……或者,在平移时水平移动以探索位置”。他们还可以自定义相机在场景中移动的方向和强度“从而让每次拍摄更具目的性 ”,同时将“包含各种相机移动方式的输出和速度斜坡结合起来以获得有趣的循环。”

很遗憾,由于新功能只限于 Gen-3 Alpha Turbo,您需要订阅每月 12 美元的标准计划才能访问该模型并亲自体验相机控制功能。

Runway 公司于 6 月推出了 Gen-3 Alpha 模型,称其为“在保真度、一致性和运动方面比 Gen-2 有重大改进,是朝着构建通用世界模型迈出的一步”。Gen-3 为 Runway 公司的所有文本到视频、图像到视频和文本到图像工具提供支持。该系统能够生成逼真的人物图像,如 X 帖子中所证明的那样,并且能够以各种艺术风格生成成果。

高级相机控制功能大约在 Runway 于 9 月中旬展示 gen-3 的新视频到视频功能一个月后上线,该功能允许用户仅使用文本提示编辑和“重新塑造”生成的视频的另一种艺术风格。与苹果的 Vision Pro AR 头戴式设备相结合时,效果惊人。该公司还宣布了一个 API 的发布,以便开发人员将 gen-3 的功能集成到他们自己的应用程序和产品中。

新的相机控制功能可能很快就会被狮门影业(Lionsgate)的电影编辑人员投入使用,该工作室是《疾速追杀》(John Wick)和《饥饿游戏》(The Hunger Games)系列的幕后制作方,其在 9 月份与 Runway 签署了一项协议,借助人工智能生成的视频内容来加强人类的工作成效。据报道,该协议的重点在于这家初创公司构建和训练一个新的生成式人工智能模型,该模型根据狮门影业 20,000 部电影和电视剧的目录进行了微调。