2月6日,字节跳动发布视频模型“Seedance2.0”,主打多模态参考与高效创作能力,支持文本、音频、图像、视频等多模态输入,为用户创造电影级的AI视频,系统性解决了AI视频生成领域在可控性、连贯性、表现力与控制门槛等方面的关键痛点。
在此之前,AI生成视频一直存在“抽卡”的问题,也就是生成内容具有高度随机性,用户需要多次尝试、反复碰运气才可能获得一组相对连贯的内容,而Seedance2.0的多模态输入可以让视频足够连贯,打破早期模型的可控性弊端。
其次,Seedance2.0可以实现多镜头叙事下的建模一致,用户可以切换目标角色或场景的不同视角,无论是左脸、右脸还是头顶,人物模型均保持一致性,这可以给你“导演级”的多机位体验,完美实现“镜头从左向右平移,从全景推到特写”等高难度画面,把原来百万级的投入,简化成一句话就可以生成的指令。
Seedance2.0一经发布,大量用户纷纷主动测试,知名科普博主影视飓风的评测结果显示,该模型在视频的大范围运动、分镜、音画匹配等方面均有可圈可点之处,能够“像真人导演一样,不断改变摄影机的位置。”
此外,多家券商的最新研报也高度评价Seedance2.0模型,开源证券甚至将它的诞生称之为AI影视的“奇点”时刻。
上个月,快手旗下的AI视频生成模型Kling也一度爆火海外,甚至登上韩国和俄罗斯地区IPhone上收入最高的图形与设计类应用,并在美国、英国、日本、澳大利亚和土耳其等市场位列前十。
其可以同时处理文本、图像和视频提示,可以根据指令变换运动物体,包括将视频中行走的猫换成吉娃娃,且整段视频画面维持连贯不失真。
截止目前,全球最受欢迎的三款AI视频模型,Seedance2.0生成2K高精度视频的速度明显高于对手,Kling更侧重于运动控制且运动的细腻性连贯性更强,Sora更侧重于物理真实感更注重现实合理性。
三款模型各有所长,不说好坏,但都把AI视频大模型的天花板往上拔高了一大截,预计未来随着更多视频大模型的诞生,影视行业,尤其是漫剧和短剧,将会率先迎来成本爆炸式下降的时代。
美东时间2月3日,英伟达CEO黄仁勋和思科CEO罗宾斯的炉边谈话,借着几杯红酒下肚,黄仁勋犀利点评AI带来的变化,包括
“旧范式的软件用户交互本质上是检索,而未来的软件是高度场景化的,每个场景都是独特的,你只需要告诉计算机你想要什么,计算机就会写代码,所以未来的编程只是打字而已,收入会不计水管工。”
“AI算力10年提升了100万倍,在这种速度面前,昔日的摩尔定律简直慢的像蜗牛在爬,在指数级进化的浪潮面前,过去引以为傲的经验将被时代无情淘汰。”
虽然言辞犀利,但也真实道出了AI给各行各业带来或将带来的变化,我们当下就是在经历AI带来的新生产力革命。
热门跟贴