龙虾的影响力真不是盖的。现在,就连视频创作圈,也有它们的一席之地了!
LiblibAI 官宣正式推出旗下第一款 AI 视频产品—— LibTV,一个全新的一站式 AI 内容创作社区。

消息一出,立刻在 AI 创作圈引发广泛讨论。
原因很简单:这不是又一个 " 能生成视频 " 的工具,而是第一次有产品把人和 Agent 当成两个平等的用户来设计。
什么意思?
你亲自上阵,可自由操控无限画布 + 节点工作流,一口气完成从剧本构思、分镜设计到最终成片的创作。平台还内置 20 余种专业实用功能。

你懒得动手,丢给你的龙虾一句话,它自己就能调用 LibTV 的 Skill,吭哧吭哧把视频做好发给你。

玩法太新颖,量子位第一时间拉上龙虾,来了一场人 +Agent 双视角实测。
一块画布,从剧本到成片全搞定
先来看人类用户这一侧。
一句话概括 LibTV 的玩法:无限画布 + 节点工作流 + 独家专业功能 + 全网顶级模型,实现一站式创作体验。
具体来看,打开 LibTV 官网点击 " 开始创作 ",迎面而来的并非传统 AI 创作界面,而是一块可以无限延伸的画布。

不知道从何下手?不用慌,在你打开这块画布之初,就会有官方新手指南自动弹出,带你快速了解基本玩法。
整套创作逻辑,围绕基础节点展开。
首先,双击画布,可以放置五种基础节点:文本、图片、视频、音频、脚本。

如果手里有现成的素材,上传就能用;暂时没有素材也没关系,完全可以在画布内从零生成。每个类型的节点都搭载高可控、专业化的功能,既能快速批量生成内容,也能精细化打磨细节。
在此基础上,节点之间可以自由连接,上游的输出直接成为下游的输入,你可以像搭积木一样,搭建专属的创作流程,实现多素材协同创作。
实操起来更直观,咱们就以从零制作一款木质调香水的广告宣传物料为例。第一步,先搞定香水瓶体的包装设计。
双击画布添加一个图片节点,界面会弹出两个操作框:
第一个框支持上传参考图或现成素材;暂时没有任何素材,可以在下方的输入框中填写 prompt,一键生成想要的瓶体包装样式。

即便是这样一个简单的图片生成操作,也配有丰富的个性化设置:
支持参考广场或收藏夹中的风格来生成;图片的分辨率、比例以及生成数量,也都能按需调整。
至于生成模型,并没有锁死某一款。这里汇集了市面上主流的顶级图像模型,供你随便挑选使用。
(P.S. 视频节点、音频节点也是同理,既能上传现成素材,也能在线生成,而且同样支持多种参数调节、市面顶流模型自由选择)

值得一提的是,图片生成器中竟还内置了摄像机控制功能,不仅可以自由选择相机类型,还能精细更换镜头,调节焦距和光圈,那叫一个专业。

完成各项参数设置后,点击生成按钮,我们就能得到多款瓶体包装设计方案:

挑选出最满意的一款设为主图,接下来再来点专业的精细化处理。
在这一块画布上,生成的图像不仅支持一键高清、智能扩图、局部重绘、擦除、抠图等常用编辑功能:

更搭载了多角度生成、打光调节等进阶工具:

可以看到,点击生成后,系统会自动从该图片节点后衍生出多个节点,不会覆盖掉原图。
最终生成效果如下,主体一致性总体保持得很不错:

你甚至还可以使用 " 标记 " 功能,精准标记不同图中的不同元素,然后使其融合生成。
比如让图 1 中的人手握图 2 中的香水:

这还远远没完,作为一款专业级视频创作工具,LibTV 足足打包了 20 多款专业功能,不少还是行业独一份的。
例如,按下 "/" 还可以调出一系列隐藏功能。
多机位九宫格、剧情推演四宫格、25 宫格连贯分镜、电影级光影校正、角色三视图生成、画面推演(3 秒后)、画面推演(5 秒前),每一个功能都很实用。

例如在前面生成的香水图后再拉出一个图片节点,按下 "/",选择生成剧情推演四宫格。
等待几分钟后,可以看到这里它构思了人手拿取香水的场景:

该四宫格是一整张图,可以切分成独立的四张图。
紧接着,我们再来添加一个视频节点,让其参照这几张图,按照 prompt 生成视频片段,效果 be like:
从头到尾,LibTV 把可控性拉满,让你牢牢拿捏住各处细节,避免反复抽盲盒。
值得一提的是,生成的视频在 LibTV 内就能裁剪,主打一个能不跳转第三方工具,就不让你跳转。

再来看看 LibTV 独有的 25 宫格连贯分镜的生成效果,同样支持一键切分成独立图片,直接就能用。

当然,这些分镜图都搞定了后,你还能接着连上视频节点,把静态分镜转成动态视频片段。
说了半天,这还只是 LibTV 的冰山一角。
如果想做故事短片,在 LibTV 中也不用自己费劲写脚本,直接新建一个 " 脚本节点 ",它就能一键帮你生成脚本。
而且生成脚本的方式很灵活,支持三种模式:剧本生成分镜脚本、视频参考生成分镜脚本、角色生成分镜脚本。

脚本生成后,点击 " 生成分镜 " 按钮,它还会根据脚本,批量生成对应的分镜图像:

紧接着,这些批量生成的分镜图像,还能一键转换成动态视频分镜,相当于拿到了故事短片的雏形:

除此之外,你还可以再添加视频、音频节点,将其融入到你的整个创作中来。
想象一下,以前拍一支 AI 短片,可能需要 ChatGPT 写剧本,Midjourney 出分镜图,再扔给视频模型生成,最后到剪辑软件里拼,中间还要来回调参数、抽卡、重生成……
但现在不一样了,整个创作流程都清晰地铺在同一块画布上:
左边列上文本节点,把人物设定写得明明白白;中间放图片节点,人物图、场景图全是按设定生成的;右边排视频节点,依托这些图文素材剪好的片段直接就位。画布下方还整整齐齐列着好几条备选背景音乐。
画布的设计,好处非常直观:你不再需要在不同工具之间反复切换。
并且,LibTV 还有一大杀手锏——它不仅能帮你生成内容,更能让创作流程复用。
将各个节点串联起来,本身就能形成一条专属创作工作流。一旦你调出了一条自己喜欢的流程,可以 " 打组 " 为工作流模板,将其 " 添加到工具箱 " 中。

以后若要做类似项目,打开画布,换一下输入,就能高效复刻爆款风格。

顺便提一嘴,LibTV 的功能玩法其实还有很多,官方也出了详细的使用教程,入口就在画布左侧的工具栏:

OpenClaw" 自动挡 " 拍片
除了专业创作者视角的丝滑创作流程,LibTV 还给大家喂上了一口龙虾肉——
解锁了 OpenClaw 自动挡拍片模式。
比起人类侧,Agent 这边的自动创作流程倒显得更省力更简单一些。
只要添加了 LibTV Skill,大家的就能秒变专业视频编导,主打一个一句话全自动出片。
从理解需求到成片交付,AI 全程包办,任何时间、任何地点都能把最终的视频和画布链接甩到你手上。
比如我甩给我的有道一句话,让它给我做个龟兔赛跑的短片。
别的任何要求都没提,Agent 就自动调用了 LibTV 能力,设计了画面风格和 6 个分镜。
最后返回了成片链接和项目画布链接。
咱一项一项仔细来检查,先看视频成片。
短片看上去大致剧情都比较完整,分镜也流畅,30 秒视频的节奏不紧不慢,清晰度也高。
不过能看出,中间有部分画风还是没做到和整体一致,但别忘了,咱的提示词只有短短一句……
而且,单看会话结果和视频,你可能不知道 LibTV 为了这支短片,都干了哪些活儿。
接下来,咱就从项目画布里扒一扒,要自动化做成一个《龟兔赛跑》的短片,LibTV 在背后都有些啥操作。
好家伙,工作流全自动生成了??
之前咱自己做视频要设计的包含剧本、人物视图、分镜和配乐的工作流,原来它全都搓出来了。

好吧,比起人类自己手动,这个 AI 生成的画布一眼看上去还是有些乱……那咱就先给它排排版再看(doge)。

拿到任务后,它首先进行了剧本创作,根据剧本生成了兔子和乌龟两个动画角色的主侧视图和 6 个分镜。

角色视图和分镜组成了长视频,长视频和自动生成的配乐剪辑成了最终成片。

而且非常人性化的一点是,如果 AI 生成的视频不符合预期,你还可以手动对每个节点进行编辑,再让它重新生成。

我只能说,就这个全自动拍片真香啊!!
效果看完了,咱来解决一件重要的事儿——
咋让拥有 LibTV 的创作能力?
操作非常之简单,只需要两步,安装 LibTV Skill+ 配置密码。
第一步安装有两个方法,一个是直接终端命令,npx skills 一键安装:
npx skills add libtv-labs/libtv-skills — skill libtv-skill

操作完成之后,可以通过 openclaw skills list 命令检查一下,Skill 列表中出现 LibTV 就代表安装成功:

第二个方法是到 ClawHub 平台的 LibTV API Skills 页面,拿到 Skill 文件后解压到对应目录,即可调用:

第二步配置密码,安装好 Skill 之后,到 LibTV 官网的右上角获取 Access Key:

拿到密钥后,可以通过设置环境变量访问 LibTV:
export LIBTV_ACCESS_KEY="your-access-key"
或者直接把密钥复制到 OpenClaw 网关中填写。

要想再省事儿一点,可以两手一甩把 Access Key 扔给,让它自己整(doge)。

好了,现在你的已经化身视频编导,可以大拍特拍了~

除了一句话生成漫剧,还能给它参考图像,让它给图片上的蛋糕拍广告。
等了大概 5 分钟:成片 get!可操作画布 get!
只能说,编导也是上桌了……
为什么是 LiblibAI?
到这里,一个问题也随之而来:凭什么 LibTV 能率先实现这种 " 人 +Agent 双入口 "、集各种独有功能于一身的产品形态?
这背后,离不开 LiblibAI 团队在多模态视觉创作领域的持续积累。
LiblibAI 是一家很年轻的公司,成立于 2023 年,但发展势头迅猛。去年 10 月,公司完成了 1.3 亿美元 B 轮融资,这也是国内 AI 应用赛道迄今为止最大的一笔融资。

纵观 LiblibAI 一路走来的产品路径,始终围绕着一个核心——创作者。
无论是早期的图像生成、风格模型训练,还是如今对 Agent 画布类工具的打磨,团队一直在回应同一个命题:模型能力越来越强,如何让创作者在真实工作流中,真正用上、用好这些能力?
这件事听起来简单,真正做起来却考验团队对创作痛点的深度理解。哪个环节最痛、哪个节点最容易卡住,这些问题必须在产品中反复试错,才能找到解法。
而正是这种持续死磕,最终沉淀出了厚度。三年深耕,LiblibAI 已成长为中国最大的多模态模型与创作社区。平台目前已经聚集了超过 2000 万创作者,拥有超 10 万款原创风格模型。
这意味着 LiblibAI 身后,一套由大量真实创作者共同塑造出来的审美体系、创作习惯和内容生态,已然成型。什么样的体验看似先进却不顺手,这个社区本身,就是最直接的产品校准器。
另外,LiblibAI 在新产品形态上的探索,也一直跑得很靠前。2025 年,他们率先在设计领域推出了垂直 Agent 产品 " 星流 ",在 Agent 交互方式、能力编排和用户协作逻辑上,已提前完成了大量技术验证与实践。
换句话说,LibTV 不是突然接上了 Agent,而是团队在前一阶段试过、跑过、打磨过之后,顺势把这套能力带进了视频创作场景。
LibTV 的推出,本质上是一次补全,也让这家公司的定位从 " 图片生成 / 模型社区 " 越来越清晰地转向一家综合性的 AI 创作平台。
与此同时,LibTV 之所以能够集成顶级的图像、视频、音频生成模型,也得益于 LiblibAI 过去几年与模型厂商、云计算平台、算力服务商建立的深度合作。
这次在定价策略上,LibTV 也展现出明显竞争力," 量大管饱 " 的那种:
年卡最低可至 39 折;部分模型享约 6 折叠加优惠,综合折扣低至 2 折;会员 SKU 价格较竞品低 76%;模型积分定价可比竞品低 92%;订阅用户还可获赠最多 150 条可灵 O3+150 条可灵 3.0,共 300 条最高等级的视频生成配额。
回到产品设计本身,LibTV 从一开始便开了两扇门:一扇面向人类的无限画布,一扇面向 Agent 的 Skill 接口。由此,人负责判断和审美,Agent 负责执行和扩展,社区负责流转和进化——三个角色各司其职,互相配合。
而创作的核心价值,恰恰落脚于人本身的深度参与。一部作品的最终高度,往往取决于创作者在某个瞬间,做出的那个独属于自己的抉择。
感兴趣的童鞋、养龙虾的童鞋不妨亲自上手试试~
官网链接:https://www.liblib.tv/
GitHub 链接:https://github.com/libtv-labs/libtv-skills
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦