2月12日,字节跳动宣布旗下最新视频生成模型Seedance 2.0正式接入豆包App、电脑端及网页版,同时上线即梦App和即梦网页版。此前该模型在小范围内测期间已在全球引发广泛关注,马斯克在社交平台X上转发相关推文并评论称:"It's happening fast(发展速度太快)。"

打开网易新闻 查看精彩图片

豆包官方介绍,Seedance 2.0支持原声音画同步、多镜头长叙事及多模态可控生成。用户输入一段提示词和参考图,即可生成带有完整原生音轨的多镜头视频内容,模型能够自动解析叙事逻辑,在角色、光影、风格与氛围上保持高度统一。网页端还支持图像、视频、音频、文本四种模态输入,创作者可以通过图片指定画面风格、用视频参考动作与运镜、以音频传达节奏与氛围。

实测显示,用户将豆包App更新至最新版本后,可通过首页入口免费体验Seedance 2.0。在对话框输入"制作一段机器人送外卖的视频"指令后,约2分钟即生成一段10秒左右的视频。豆包App端目前仅支持文生视频,图生视频功能尚未开放,每个账号每天拥有10个免费额度,生成一段10秒视频需消耗2个额度。即梦App端同样已上线该模型,但需消耗积分,生成5秒视频需20积分。

在使用边界方面,豆包App和即梦App支持用户通过录音录像完成真人校验后生成本人数字分身,但平台明确限制上传他人真人图片或视频作为主体参考。此前,即梦平台运营人员曾在创作者社群发布消息称:"为了保障创作环境的健康可持续,我们正在针对反馈进行紧急优化,目前暂不支持输入真人图片或视频作为主体参考。"字节跳动官方同时坦言,Seedance 2.0"还远不完美",在细节稳定性、多人口型匹配、文字还原精度等方面仍有优化空间。

市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。

本文源自:市场资讯

作者:观察君