AI范儿 · 教程实测
前两天我写了小龙虾里可以接入 Seedance 2.0 生成视频,很多人来问:需要排队吗?
说实话,那个和即梦官网一样,也是排队到让人想砸电脑的。
但昨晚我熬夜挖到了一个宝藏平台:LibTV。
用的是满血版 Seedance 2.0,不仅完全不需要排队,还直接把视频生成玩成了“连连看” 。
先看这条视频。我没有上传任何图片素材,纯文字输入,从剧本到成片,就几分钟。
再看一眼这个炸裂的工作流:从剧本到最终成片,全部在一个画布里拖拽完成。
我都没法说它是个做视频的,这玩意简直是把电影厂搬到了画布上,几分钟就能“搓”出一部短剧,而你要做的就是点几下鼠标。
这一直是我梦想中的流程,没想到真有人给做出来了!这种体验都远超即梦本身,这才是 AI 时代该有的效率。
01LibTV 是什么,跟即梦有什么区别?
简单说:可灵、Seedance,这些是模型。LibTV 是平台。
把市面上主流的视频生成模型全部接进来,你不用一个一个去注册、一个一个充值,在这里一站搞定。
3月18日发布,上线首日访问量突破10万。
但它最“不讲武德”的地方在于工作流设计
平时做视频,是割裂的。
剧本用一个工具,分镜换一个,生成再跳一个,剪辑还得去剪映,切来切去烦死人。
LibTV 把这些全打通了,像搭积木一样把整个项目塞进一块画布:
剧本 → 视频脚本 → 分镜设计 → 视频生成 → 成片 全部在 LibTV 一个画布里完成
分镜图可以用 Seedream,视频生成可以用 Seedance 2.0 或者可灵。这些工具里最牛的那几个,全串在一起了。
这种整合能力,简直就是视频生成领域的“全能工作站”。
简单说:它是视频界的“达芬奇”,顺便干碎了来回横跳的痛苦。
02Seedance 2.0,有多强
Seedance 2.0 目前是地表最强的视频生成模型,不了解的可以看我之前的详细测评。
以前生成视频完全靠运气,80% 都是废片,基本就是抽卡。
Seedance 2.0 现在可以精确到每个镜头的时间码、景别、运镜方式,甚至音效在几秒出现。
还支持把文字、图片、音频、视频混合起来做参考,音效对白跟着视频一起生成。
提示词
生成一段废墟探险电影开场。
0-3秒:极低角度特写,荒草从龟裂地面钻出,镜头缓慢抬起。
4-8秒:中景,一个穿风衣的身影背对镜头站在坍塌的大楼入口,镜头推近。
9-12秒:第一视角,进入废墟内部,光线从破洞射入,尘埃漂浮。整体青灰色调,无人声,配合低沉环境音。
LibTV 加上 Seedance 2.0,真的是王炸组合。
废话少说,直接看案例。
03我测了什么,结果怎么样
登录 liblib.tv,点"开始创作",你会发现它跟以前用过的工具完全不一样。
这里有四种模式:故事脚本生成、角色三视图、首帧图生视频、音乐生视频。
简单理解就是:放完整剧本来文生视频、图生视频、音乐驱动视频,以及一个专门维持人物形象一致性的角色三视图。
动漫角色走进真实世界
选择首帧生视频,换上自己的图,写提示词,选好模型、时长、比例、是否开启声音,点生成。
动漫线条感保留了,背景是写实的霓虹和雨水,没有明显割裂感,光影方向也是对的。
坦率说,这个结果我有点惊到了。以前动漫角色进写实场景,基本一眼就看出割裂,这次融合得比我预期干净很多。
LibTV 的画布设计也特别好用:同一张素材可以反复用,生成不满意就直接点加号修改提示词再来,所有结果都摆在无限延伸的画布里,一眼全看到。
同一张脸,两个完全不同的世界
Seedance 2.0 的形象保持是真的强。
用 AI 生成了一个女性角色图,然后用同一张图,生成了雨天咖啡馆和暴风雪山顶两条完全不同的视频。
两条视频里,人物的发色、轮廓、五官保持得相当稳定。
以前的 AI 视频基本做不到这一点,同一个描述每次出来就是不同的人。
这个能力对做内容的人意味着什么?
意味着你可以真正"签约"一个虚拟角色,让她持续出镜,而不是每期视频都换一张脸。
一张分镜表,直接出片
这个是最吸引我的地方。
就像前面说的,在 LibTV 里可以:从剧本直接生成脚本、分镜图,再批量生成视频,最后批量下载到剪映剪辑。
对某个片段不满意,直接在画布里改提示词重新跑。
有个小 bug 要说:分镜表里定义好的每段视频时长,批量生成时没有被执行,只能选统一长度。
几十条视频批量跑,偶尔有几条提示词违规要单独改,可能导致情节不连贯。期待后面能修掉。
(比如我开头的视频有几个片段其实就是失败后换模型生成的)
对了,漫画也可以直接丢进来,它会把每个格子当一个分镜来生成视频。
这个在漫剧方向的潜力,我觉得还远没被挖出来。
当然,正常的电影分镜就更完美。
音乐驱动卡通角色动起来
Seedance 2.0 可以根据音乐卡点和声音来生成视频。
操作简单到离谱:把图片和音频放一起,连到视频生成节点,写提示词,生成。
先用 AI 生成了一个卡通女生角色图,再上传一段音乐。
卡点视频也可以这样做,以前做卡点视频要手动一帧一帧对节奏,现在扔进去它自己踩点。
做短视频的朋友应该很感兴趣。
让她在歌厅唱歌:同期声测试
Seedance 2.0 这次开始支持同期声,音效、对白、甚至音乐跟着视频一起生成,不用后期单独配了。
上传一张手持麦克风的女性图片,让她在歌厅舞台上深情演唱。
我记得不久前还有很多专门做口型同步的应用,而现在生成的视频口型直接是对好的。
一夜之间,那类 APP 又都歇菜了。
动作和运镜,同时复刻
Seedance 2.0 支持参考动作和运镜来生成视频,只要把形象图和参考视频放在一起,就能直接出片。
说实话,这次这个案例我踩了不少坑。Seedance 对形象和版权卡得很严,试了好多次都没通过。
我在之前的测评里做过,动作层面复刻得不错,运镜也跟得上。以前要靠极其复杂的提示词才能接近的效果,现在直接放一段参考视频进去就行。
武术指导要失业了。(开个玩笑,但真的只是半开玩笑。)
它不再只是"生成素材"的工具,它开始在"直接出片"了。素材生成和成片之间那道墙,正在变薄
04在聊天里直接出视频,不用打开任何网页
现在小龙虾这么火,LibTV 这么强大,居然也能在里面直接用。
比如我跟我的小龙虾说:
用 LibTV 生成一个视频,以这个卡通女生为主体,吉卜力动画风格。黄昏山丘,她手握一封信,读完后将信纸举向天空,粉色双马尾大幅飘动。镜头从侧面缓缓推近到脸部,眼睛里有光。远处山谷灯火刚亮,天色从橙红转向深蓝。手绘水彩质感,暖橙冷蓝色调,风声与隐约钢琴声。时长12秒。
过一会,它就会直接把视频发给我,在飞书里打开就能看了。
要做到这个很简单,直接跟你的小龙虾说"帮我安装 LibTV API Skills",它会乖乖帮你装好。
装完之后到网页上申请一个 Access Key,把 key 给小龙虾设置,或者自己设置都行。(export LIBTV_ACCESS_KEY="你的访问密钥")
之后就可以像前面那样,直接在聊天里让小龙虾帮你生成视频了。生成的视频在 LibTV 后台也能找到,小龙虾会直接给你链接,点进去就能下载。
这才是 AI 原生工作流该有的样子。
你说清楚要什么,工具之间自己调度,不用你来回切软件。我想到这里可以延伸的玩法,就已经开始手痒了。
05两个需要提前知道的事
关于真人授权
Seedance 2.0 因为过于强大,上线时关闭了上传真人照片生成视频的功能。好消息是15号开始会开放,但需要授权确认才可以继续。
目前这一步卡得比较严,我这次测试里有好几个案例只能改成卡通人物。相信很快会放开。
关于审核
跟即梦一样,让我抓狂。
有些提示词被直接拒,但不告诉你具体哪个词有问题。只能一个字一个字改着试,反复提交。我有一个案例改了将近N次才过。
这应该是 Seedance 本身的问题,是整个行业的通病。忍着,等某一天。。。
测完这一天,我反复想一个问题。
以前说 AI 视频是"生成素材",创作者拿素材去剪、去配音、去出片,AI 只是其中一环。
但在 LibTV 上用了 Seedance 2.0 之后,这个逻辑正在变。不再是"AI 生成素材,人来出片",而是"人说想法,AI 直接出片"。
对独立创作者来说,这是红利。一个人能做的事,边界正在往外推。
对传统影视制作流程来说,这个问题值得认真想一想了。
你用 LibTV 跑出来什么有意思的东西了吗?评论区告诉我,看到都会回觉得有用 → 点个❤️在看转给还不知道的朋友点个赞 告诉我你看完了关注「AI范儿」,下次更新第一时间收到
热门跟贴