1月30日消息,今天,一款以「为剧而生」为核心理念打造的新一代模型Vidu Q3发布,是首个支持16秒音视频直出的 AI 视频模型。在国际权威AI基准测试机构Artificial Analysis 最新公布的榜单中,Vidu Q3排名中国第一,全球第二,超越 Runway Gen-4.5 ,Google Veo3.1和 OpenAI Sora 2。
打开网易新闻 查看精彩图片
据介绍,新模型首先解决了时间长度问题,跨过了叙事阈值。16秒,是一个对内容生产具有决定性意义的时间节点。它足以完成一次完整的情绪 起—承—转—合,可以清晰表达因果关系、冲突与态度,而不只是状态或画面展示,能够作为漫剧、短剧及影视剧中的一个独立叙事段落被直接使用。
其次,声音与画面实现端到端直出。在 Vidu Q3中,音频不再是生成后的附加环节。它不再是“画面生成 + 后期配音”,而是:画面节奏、对白、环境音与情绪同步生成,剪辑节奏、情绪呼吸点与叙事重点,在模型内部已完成对齐。
最后,生成结果可以被直接“拿去用”。对内容生产而言,衡量一个生成结果是否成立,核心标准只有一个:是否可以不经过复杂加工,直接进入分发与商业使用链路。
综合来看,Vidu Q3支持16秒声画同出,支持多镜头自由切换,支持多语言对话,多语种文字渲染。支持中、英、日等多语种、多语言文字自然嵌入视频画面,无需后期逐帧跟踪、拼贴剪辑。据介绍,对短剧、漫剧行业而言,创作模式从“堆人力”转向 “提效率” ,内容更新周期从“月更”级压缩至 “日更” 级,大幅降低了高质量内容的量产门槛。(定西)
本文来自网易科技报道,更多资讯和深度内容,关注我们。
热门跟贴