libtv-skill
通过agent-im的OpenAPI,支持创建会话、发送消息以生成或编辑图片/视频,并能上传多媒体文件及查询会话记录,实现智能多媒体交互。
npx skills add libtv-labs/libtv-skills --skill libtv-skillBefore / After 效果对比
1 组过去需要分别使用不同的工具进行图片生成、视频制作和编辑,操作流程繁琐,耗费大量时间和精力。
借助libtv技能,通过简单的会话指令即可一站式完成生图、生视频及视频编辑,极大提升多媒体内容创作效率。
description SKILL.md
libtv-skill
agent-im 会话(生图 / 生视频) 通过 agent-im 的 OpenAPI 创建会话、发送消息(生图、生视频、编辑视频等)、上传图片/视频文件,并查询会话消息进展。 LibTV 是 LiblibAI 推出的 AI 视频创作平台,同时为人类创作者和 Agent 设计。Agent 通过 Skill 入口理解任务、调用模型并自动编排工作流。 平台核心能力: 生成:文生图、文生视频、图生视频、视频续写 编辑:局部修改、元素替换、镜头调整、风格迁移 复杂创作:一句话生成完整短剧(剧本→分镜→成片)、复刻已有视频风格做 TVC/宣传片、用音乐生成 MV、产品展示片制作 模型:Seedance 2.0、Kling 3.0/O3、Wan 2.6、NanoBanana、Midjourney、Seedream 5.0 等顶级模型 用户的所有创作和编辑需求都通过发送自然语言消息来完成,Agent 会自主编排工作流。复杂任务(短剧、MV)耗时较长,需耐心轮询。 功能 创建会话 / 发消息 - 创建新会话或向已有会话发送一条消息(如「生一个动漫视频」「把纸船换成爱心」) 查询会话进展 - 根据 sessionId 拉取该会话的消息列表,用于轮询生图/生视频结果 切换项目 - 将当前 accessKey 绑定的项目切换到新项目,后续 create_session 将使用新 projectUuid 上传文件 - 上传图片或视频文件到 OSS,返回可访问的 OSS 地址(编辑已有视频/图片时需要先上传) 下载结果 - 将会话中生成的图片/视频批量下载到本地,自动提取 URL 并命名 前置要求 export LIBTV_ACCESS_KEY="your-access-key" 可选:OPENAPI_IM_BASE 或 IM_BASE_URL,默认 https://im.liblib.tv。 无需安装额外依赖,仅使用 Python 标准库。 使用方法 1. 创建会话 / 发送消息 # 创建新会话并发送「生一个动漫视频」 python3 {baseDir}/scripts/create_session.py "生一个动漫视频" # 向已有会话发送消息 python3 {baseDir}/scripts/create_session.py "再生成一张风景图" --session-id SESSION_ID # 只创建/绑定会话,不发消息 python3 {baseDir}/scripts/create_session.py 2. 查询会话进展 # 查询会话消息列表 python3 {baseDir}/scripts/query_session.py SESSION_ID # 增量拉取(只返回 seq 大于 N 的消息) python3 {baseDir}/scripts/query_session.py SESSION_ID --after-seq 5 # 附带项目地址(传入 create_session 返回的 projectUuid,结果中带 projectUrl) python3 {baseDir}/scripts/query_session.py SESSION_ID --project-id PROJECT_UUID 3. 切换项目 # 切换当前 accessKey 绑定的项目(后续创建会话将使用新项目) python3 {baseDir}/scripts/change_project.py 4. 上传文件 当用户提供了参考的文件地址时,进行上传,仅支持图片、视频,文件大小必须在200M以下。 # 上传图片 python3 {baseDir}/scripts/upload_file.py /path/to/image.png # 上传视频 python3 {baseDir}/scripts/upload_file.py /path/to/video.mp4 5. 下载结果 生成完成后,可以将会话中的所有图片/视频批量下载到本地。 # 从会话自动提取并下载所有结果 python3 {baseDir}/scripts/download_results.py SESSION_ID # 指定输出目录 python3 {baseDir}/scripts/download_results.py SESSION_ID --output-dir ~/Desktop/my_project # 指定文件名前缀(如 storyboard_01.png, storyboard_02.png ...) python3 {baseDir}/scripts/download_results.py SESSION_ID --prefix "storyboard" # 直接下载指定 URL 列表(不需要 session_id) python3 {baseDir}/scripts/download_results.py --urls URL1 URL2 URL3 --output-dir ./output 典型工作流 理解这些工作流,才能正确组合上面的脚本完成用户需求。 场景 1:用户要求生成图片/视频(最常见) 1. create_session.py "用户的描述" → 拿到 sessionId + projectUuid 2. 每隔 8 秒调用 query_session.py SESSION_ID --after-seq 0 轮询 3. 检查 messages:当出现 assistant 角色的消息且包含图片/视频 URL → 任务完成 4. 自动下载:download_results.py SESSION_ID --output-dir ~/Downloads/项目名 --prefix 有意义的前缀 5. 向用户展示:本地文件列表 + projectUrl(画布链接) 生成完成后自动执行下载,不需要用户额外请求。下载目录和前缀根据任务语义自动命名(如分镜用 storyboard,角色设定用 character 等)。 场景 2:用户提供图片/视频要求编辑修改(如"把纸船换成爱心") 1. upload_file.py /path/to/video.mp4 → 拿到 OSS URL 2. create_session.py "把四周的纸船都换成白色的纸爱心 参考视频:{oss_url}" 3. 后续同场景 1 的步骤 2-5 用户给了文件路径 + 编辑指令 = 先上传文件,再把编辑指令和 OSS URL 一起发送。 场景 3:用户提供参考图/视频要求生成新内容 1. upload_file.py /path/to/ref.png → 拿到 OSS URL 2. create_session.py "根据参考图生成xxx,参考图:{oss_url}" 3. 后续同场景 1 的步骤 2-5 场景 4:在已有会话中追加新需求 1. create_session.py "新的描述" --session-id SESSION_ID 2. 后续同场景 1 的步骤 2-5 轮询策略 间隔:每 8 秒查询一次 增量拉取:首次用 --after-seq 0,后续用上次拿到的最大 seq 值 完成判断:messages 中出现 assistant 消息且 content 包含结果 URL(图片/视频地址) 超时:连续轮询 3 分钟仍无结果,告知用户"生成时间较长,可稍后通过项目画布链接查看",不再继续轮询 错误重试:单次查询失败可重试 1 次,连续 3 次失败则停止并告知用户 输出格式 create_session 返回: { "projectUuid": "aa3ba04c5044477cb7a00a9e5bf3b4d0", "sessionId": "90f05e0c-...", "projectUrl": "https://www.liblib.tv/canvas?projectId=aa3ba04c5044477cb7a00a9e5bf3b4d0" } query_session 返回: { "messages": [ {"id": "msg-xxx", "role": "user", "content": "生一个动漫视频"}, {"id": "msg-yyy", "role": "assistant", "content": "..."} ], "projectUrl": "https://www.liblib.tv/canvas?projectId=..." } (projectUrl 仅在传入 --project-id 时存在) change_project 返回: { "projectUuid": "新项目UUID", "projectUrl": "https://www.liblib.tv/canvas?projectId=新项目UUID" } upload_file 返回: { "url": "https://libtv-res.liblib.art/claw/{projectUuid}/{uuid}.png" } download_results 返回: { "output_dir": "/Users/xxx/Downloads/libtv_results", "downloaded": ["/Users/xxx/Downloads/libtv_results/01.png", "..."], "total": 9 } 最终向用户展示时(OpenClaw) 视频地址:来自 query_session 返回的 messages 中 assistant 消息的 content 或结果里的视频/图片 URL,即「返回的结果」。 项目地址:使用 create_session 返回的 projectUrl,或自行拼接 https://www.liblib.tv/canvas?projectId= + projectUuid。查询进展时若传入 --project-id PROJECT_UUID,query_session 会直接返回 projectUrl,便于一并展示。 在任务完成时,同时给出:视频/图片结果链接 + 项目画布链接(projectUrl)。 过程中,不要给出 项目画布链接(projectUrl)。 核心原则:用户侧不做创作,只做传话 你(用户侧 Agent)的职责是搬运工,不是创作者。后端有专门的 Agent 负责理解需求、拆解分镜、编排工作流、选模型、写 prompt。你要做的只有三件事: 上传:用户给了本地文件 → upload_file.py 拿到 OSS URL 传话:把用户的原始描述 + OSS URL 原封不动发给 create_session.py 取件:轮询结果 → 下载到本地 → 展示给用户 绝对不要做的事: 不要替用户扩写、润色、翻译 prompt(用户说"帮我推演分镜",就直接传"帮我推演分镜",不要自己先写个分镜表再逐条发) 不要自行拆解任务步骤(如把"生成9张分镜图"拆成9次独立请求) 不要自行编排镜头描述、剧情推演、风格分析 不要在消息中添加自己编的 prompt(如"超写实风格,电影级光影,8K分辨率"之类的描述词) 后端 Agent 对模型能力、参数配置、prompt 工程远比用户侧更专业。用户侧越俎代庖只会降低生成质量,换个弱模型更是灾难。 正确示例: 用户说:「帮我推演后续的故事,来个分镜大爆炸,帮我出一个16:9的九宫格的图。新建一个任务。」 用户给了参考图:/path/to/ref.png → upload_file.py /path/to/ref.png → 拿到 oss_url → create_session.py "帮我推演后续的故事,来个分镜大爆炸,帮我出一个16:9的九宫格的图。参考图:{oss_url}" → 轮询 → 下载 → 展示 错误示例: ❌ 用户侧自己先写了个九宫格分镜表(对峙、交锋、危机...) ❌ 然后把自己编的描述发给后端 ❌ 或者拆成9次 create_session 分别发送 注意事项 鉴权方式为请求头 Authorization: Bearer <LIBTV_ACCESS_KEY> 创建会话时若不传 message,仅创建/绑定会话,不会调用 SendMessage 查询会话时可用 --after-seq 做增量拉取,便于轮询新消息(含 assistant 回复与生图/生视频结果) 项目画布地址固定为:https://www.liblib.tv/canvas?projectId= + projectUuid 切换项目后,Redis 缓存会更新,下次 create_session 将使用新的 projectUuid 上传文件仅支持图片(image/)和视频(video/)类型,其他类型会被拒绝,文件大小须在 200MB 以下 上传返回的 OSS 地址格式为 https://libtv-res.liblib.art/claw/{projectUuid}/{uuid}{ext} 生成过程中只告知用户"正在生成中",不要提前给出 projectUrl;任务完成后再同时给出:结果链接(图片/视频 URL) + 项目画布链接(projectUrl) Weekly Installs295Repositorylibtv-labs/libtv-skillsGitHub Stars120First Seen2 days agoSecurity AuditsGen Agent Trust HubFailSocketPassSnykWarnInstalled oncursor286gemini-cli286amp286cline286github-copilot286codex286
forum用户评价 (0)
发表评价
暂无评价,来写第一条吧
统计数据
用户评分
为此 Skill 评分