大家好,我是冷逸。

今天,LiblibA发布了一个全新的AI视频创作平台「LibTV」。

打开网易新闻 查看精彩图片

不同于过往其他产品的发布,这次他们推出了两个版本,一个给人类用,一个给Agent用。

  • 人类点这里➡️:www.liblib.tv

  • Agent点这里➡️:github.com/libtv-labs/libtv-skills

给人类用的「LibTV」,如果大家有用过类似的画布产品(比如Lovart),相信应该并不陌生。

今天,我想重点跟大家聊的是,他们的另一个给OpenClaw用的「libtv-skills」。

打开网易新闻 查看精彩图片

在我体验了用龙虾来制作视频后,真的回不去了。

这种感觉就像是,我躺在床上刷视频一样,龙虾就是B站,而「libtv-skills」就是UP主,我只负责给UP主刷火箭、充Token,就会有源源不断的视频喂给我。

是的,我们正在见证一个Agent与人类成为平等用户的AI新时代。

打开网易新闻 查看精彩图片

怎么给接上LibTV Skill?

首先,我们需要有一只虾,以及给虾同步消息的IM平台(比如飞书)。

如果朋友你还没有虾,可以在我们这里领一只:

我今天测试用的是澳龙(AutoGLM),嗯,“澳洲龙虾”应该还挺靠谱的吧。

然后,就告诉你的龙虾:

给我安装这个skills:https://github.com/libtv-labs/libtv-skills

打开网易新闻 查看精彩图片

如果是本地龙虾,也可以通过npx手动安装。

npx skills add libtv-labs/libtv-skills --skill libtv-skill

安装skill后,但这个时候还不能用,我们还得给它接上神秘的access_key。

简单来说,access_key就是你在「LibTV」上充的算力密钥,请记得给skill准备充足的“口粮”。

我们直接去liblib.tv官网登录账号,把鼠标移到右上角头像,在账户/设置区域,找到并复制上你的access_key。

打开网易新闻 查看精彩图片

拿到key后,我们回到小龙虾里面,告诉它:

这是libtv的access_key:xxxx,请帮我设置环境变量。

打开网易新闻 查看精彩图片

如果是本地龙虾,也可以直接输入这行命令来配置。

export LIBTV_ACCESS_KEY="your-access-key"

然后,重启龙虾,就可以调用这个skill了。

我们先随便跑一个任务,试下效果。

提示词:给我做一个30s的漫剧,讲述龙虾版《掩耳盗铃》。

龙虾会立刻调用LibTV Skill创建任务,开始创作。

打开网易新闻 查看精彩图片

在任务完成后,它会给出一个LibTV Project链接,可以看到完整的创作过程。

打开网易新闻 查看精彩图片

左边是OpenClaw会话,右边是LibTV画布结果

有点遗憾的是,目前还不能实时看到龙虾创建工作流的过程,只能等任务结束后看最终的结果。

但是龙虾的工作过程,我们还是可以随时监控的,直接给它来上这样一句指令:

每隔 30 秒给我汇报一次创作进度。

它就会定时给你汇报创作进度,看看任务进行到哪里了。

打开网易新闻 查看精彩图片

来看下最终的成品。

我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!
打开网易新闻 查看更多视频
我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!

完成得还不错,声画同出,剧情连贯,人物主体的一致性也保持得不错。

那这……它天然适合在飞书上搞创作啊。

于是,我给了龙虾一张图(需提前在飞书开放平台给机器人开通上传文件和获取文件的权限),让它理解这张梗图并制作一支短视频。

打开网易新闻 查看精彩图片

龙虾很快就懂了这个梗。

打开网易新闻 查看精彩图片

然后给我做了一个五格视频,还有配音。

我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!
打开网易新闻 查看更多视频
我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!

这视频质量真不错,感觉我再整个炸裂一点的封面文字,就可以直接拿去发视频号了。

理论上,你还可以给它发视频、发音乐,让它复刻生成视频,或者根据音乐配个MV。

当然,也要取决于你的龙虾用什么模型。像这类考验模型多模态理解能力的任务,建议优先用Gemini 3.1、K2.5、GLM-5-TurboQwen3.5-Plus

整个体验下来,我感觉用龙虾+LibTV做短片真的太爽了。

LibTV这个Skills,直接把视频的创作门槛打到了老奶奶级别。

            └── upload_file.py      # 上传图片 / 视频文件到 OSS

不需要你去搭什么复杂的工作流,也不需要你去配什么API,直接一个key搞定。甚至连配置都不用你管,直接把url和key丢给龙虾,让它帮你搞。

所以,我才在一开始就说,体验了这种用做视频的爽感后,就真的回不去了。

打开网易新闻 查看精彩图片

LibTV有些什么?

除了Skills,他们这次推出的liblib.tv也值得说道说道。

它其实并不复杂,也是一个画布式产品,体验过类似产品的朋友,应该并不陌生。

但LibTV有一些新的东西。

1)20+创作功能

首次打开画布,你会看到默认4种创作模式:脚本生成、角色三视图、图生视频、音频生视频。

打开网易新闻 查看精彩图片

当然,也可以双击画布,自由选择节点进行创作。

打开网易新闻 查看精彩图片

左侧边栏,工具箱里预设了很多镜头模板,都可以自由选择。

打开网易新闻 查看精彩图片

这一套很适合专业视频创作者,甚至有些功能还是首次推出。

比如:9/25 宫格分镜生成、一键生成完整故事板、剧情推演四宫格、快速测试不同剧情走向、多机位9宫格镜头设计、模拟真实影视机位调度、角色三视图生成、快速建立稳定角色设定、画面时间推演(自动生成前3秒/后5秒画面延展)。

对于专业创作者来说,这一套整个组合起来确实是利器,可以帮我们快速拉起一套视频创作的流程。

2)30+顶流模型

模型这块,也是蛮多的。

我数了下,大概有30多款,几乎涵盖了目前市面上从经济到性能各个段位的主力模型。

打开网易新闻 查看精彩图片

像可灵O3、可灵3.0、Pixverse V5.5、Wan 2.6、Vidu Q3 PRO、Seedance 1.5、hailuo 2.3、Video 3.1这些顶级的模型,都在里面。

别问为什么Seedance 2.0不在里面啊,因为人家压根就没开放API。如果开放了,我相信LiblibAI应该也会第一时间接入进来。

这还只是视频领域。生图的话,像Nano Pro、Seedream 5.0、Midjourney V7、Qwen Image这些顶级模型,也都在里面。

打开网易新闻 查看精彩图片

3)无限画布

创建一个新项目后,LibTV会提供了一张无限画布的创作界面。

从剧本、分镜到视频生成、剪辑和画面优化,都可以在这张画布里完成。

比如,这是一个汽车广告的创作过程,它的画布节点可以做到如此之多。

打开网易新闻 查看精彩图片

下面,我们来看几个视频,全都是一些创作者通过LibTV完成的。

法天象地(by创作者@北邦)

我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!
打开网易新闻 查看更多视频
我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!

MV《Not your doll》(by创作者@urey柚梨)

我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!
打开网易新闻 查看更多视频
我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!

手机宣传片(by创作者@挣钱养菜菜)

我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!
打开网易新闻 查看更多视频
我用龙虾+LibTV搞定了AI漫剧,老奶奶都能操作,这下起飞了!

整体看下来,我感觉LibTV大概率是现阶段最适合专业创作者和Agent的AI视频工具。

感兴趣的朋友,可以前往这2个地址体验。

  • 官网:https://www.liblib.tv

  • github:https://github.com/libtv-labs/libtv-skills

打开网易新闻 查看精彩图片

据了解,这是LiblibAI推出的第一款AI视频产品

一款产品,同时打开了两扇正门。

一扇,是提供给人类创作者使用的专业GUI入口,画布、节点、分镜、编辑……所有专业创作者想要的精细控制,都在这里。

另一扇,则是专门提供给Agent使用的Skill入口,它通过Skill接口理解任务、调用模型、编排工作流、自动生成视频。

如果我没记错,这应该是视频创作领域第一款从Day 1起就把人和Agent当作两个平等用户来设计的产品

过去,所有的产品都在疯狂研究如何让人类更易理解、更易操作。

而现在开始,我们的产品还要同时研究如何让Agent更容易调用。

这事,想想就挺有意思的。

没想到,今天能够亲眼见证。