我讓 OpenClaw 接管 libtv: 5秒視頻只是開始,長視頻自動化才是王炸

作者:俊哥AI出海
日期:2026年3月20日 上午2:09
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

OpenClaw 加 libtv-skill 打通咗影片自動化流水線,從翻車到成功出片,唔係玩具而係真係可以量產。

整理版摘要

呢篇文章係俊哥(前字節工程師、AI編程教練)分享佢點樣用 OpenClaw 作為總調度,配合 libtv-skill 呢個執行引擎,成功整到一條由指令到影片嘅自動化鏈路。

佢一開始諗住好簡單——生成一條10秒內嘅美女海邊散步片,點知撞正會員權限牆、系統異常等問題,搞到心都灰埋。但正正係呢啲挫折,令佢真正體會到 OpenClaw 嘅調度能力同 libtv-skill 嘅執行邏輯,唔係淨係幫你撳個掣,而係將你一句人話翻譯成完整工作流程。

整體結論係:呢條鏈路已經有實戰價值,從5秒到5分鐘,只係工程擴展嘅問題,唔係由零到一。未來嘅分水嶺唔再係識唔識寫 prompt,而係有冇辦法穩定批量產出內容,建立一條真正嘅流水線。

  • OpenClaw 做總調度,libtv-skill 做執行引擎,將一句人話翻譯成任務編排,唔係純粹嘅按鈕操作。
  • 實戰中 libtv-skill 至少做咗五件事:創建 session、自動發消息、輪詢狀態、失敗重試同模型切換、返回連結。
  • 俊哥嘅真實路徑係先撞牆(權限問題),然後改策略先出參考圖,再圖生5秒片,最後成功閉環。
  • 長視頻自動化嘅關鍵係打通四層:指令理解、執行編排、生成能力、結果交付,而家已經全部跑通。
  • 未來比嘅係批量生產能力,而唔係偶爾出靚圖;OpenClaw + libtv-skill 呢條鏈路已經有實戰價值,下一步係標準化模板同長視頻批量化。
值得記低
連結 liblib.tv

LibTV 官網

LibTV 嘅官方網站,可以用嚟生成圖片同影片。

連結 github.com

libtv-skill GitHub

libtv-skill 嘅開源倉庫,包含技能嘅源碼同使用文檔。

結構示例

內容結構

內容結構 makefile
LibTV 官網:
https://www.liblib.tv/
Github: 
https://github.com/libtv-labs/libtv-skills
整理重點

OpenClaw 唔係按鈕,而係總調度

俊哥一開始以為只係叫 OpenClaw 生成一條片,點知即場體驗咗咩叫總調度。佢話之前都係聽人講,今次真係感受到 OpenClaw 好似一個大腦,libtv-skill 就係雙手。

OpenClaw 似總調度,libtv-skill 似執行引擎

一句「生成10秒內,美女在海邊散步」,背後其實係 libtv-skill 自動做咗一串動作:開 session、發訊息俾生成引擎、輪詢任務狀態、遇到失敗就重試或者換模型,最後俾返條連結你。

整理重點

從翻車到成功:俊哥嘅真實跑通路徑

俊哥嘅實戰經驗係由一堆錯誤開始:vip專屬模型、請先開通會員、系統異常……佢笑稱「人都麻了」。但正正係呢啲錯誤,先見到 libtv-skill 嘅自動重試同模型切換機制。

  1. 1 直接生視頻(失敗) — 撞到會員權限牆,呢一步好真實。
  2. 2 改策略,先出參考圖(成功) — 先拎到一張高質量寫實圖,畫面、光線、構圖都穩定。
  3. 3 圖生5秒視頻(二次嘗試) — 第一次又被權限攔,開通會員之後重跑。
  4. 4 成功出片(完成閉環) — 最終拎到 mp4 成片連結,鏈路閉環完成。

先出參考圖再圖生片,呢個策略迴避咗直接生視頻嘅權限問題

整理重點

長視頻自動化嘅四層架構

俊哥指出,長視頻自動化嘅本質唔係片長幾多秒,而係有冇打通下面呢四層。佢已經全部跑通,所以從5秒到5分鐘只係工程擴展。

  • 指令理解層:你講人話,系統明你講咩。
  • 執行編排層OpenClaw 調度,將指令拆成多個步驟。
  • 生成能力層:libtv-skill 加模型,真正生成內容。
  • 結果交付層:可追蹤、可下載、可複用。

從5秒到5分鐘,本質係工程擴展,唔係由0到1

呢個係真正嘅分水嶺:以前大家比拼邊個 prompt 寫得好,而家係邊個可以穩定批量生產內容。唔係偶爾出靚片,係每日都有成片出。

整理重點

俊哥嘅下一步計劃

俊哥係前字節工程師,而家係萬人社羣嘅AI編程教練。佢話下一步會繼續拆解呢套流程,整成可複製嘅SOP,等更多人可以用到。

我會將呢套流程繼續拆成可複製 SOP

有興趣嘅話可以關注佢嘅公眾號「俊哥AI出海」或者 Twitter @jungeAGI,佢會持續分享呢類實戰內容。

先講結論。

今日呢一波,唔係「又做咗個AI視頻」。

是我把 OpenClaw + libtv-skill 呢條鏈路,硬生生跑通咗。

而且係由翻車開始跑通㗎。

我開頭嘅指令好簡單:

「生成10秒內,靚女喺海邊散步。」

睇落好普通,係咪?

結果一嚟就畀我一Set組合拳:

  • VIP專屬模型  
  • 請先開通會員  
  • 系統異常

我人都癲咗。。。

但呢度最關鍵嘅,唔係報錯。

係我今日第一次真係感受到:

OpenClaw 似總調度,libtv-skill 似執行引擎。

佢唔係「幫你㩒一個掣」。

佢係將你一句人話,翻譯成完整工作流程。

圖片

libtv-skill 到底做咗啲咩?

好多人以為佢只係「生圖生視頻」。

不。

今日實戰入面,佢至少做咗呢幾件事:

  1. 創建會話(create session)  
  2. 自動Send訊息畀後端生成引擎  
  3. 輪詢任務狀態(query session)  
  4. 處理失敗重試同模型切換  
  5. 返回可交付連結(圖片/視頻)

你見到嘅係一句話。

背後其實係一整套任務編排。視頻成品喺下面:

LibTV 官網:
https://www.liblib.tv/
Github: 
https://github.com/libtv-labs/libtv-skills

我今日嘅真實跑通路徑(可複用)

第1步:直接生視頻(失敗)

先撞到會員權限牆,呢一步好真實。

圖片

第2步:改策略,先出參考圖(成功)

先拎到一張高質量寫實圖,畫面、光線、構圖都穩定。

圖片

第3步:圖生5秒視頻(二次嘗試)

第一次都係被權限攔住,開通會員之後重跑。

第4步:成功出片(完成閉環)

最終拎到 mp4 成片連結,鏈路閉環完成。

圖片

點解我話「長視頻自動化已經跑通」?

因為本質唔係5秒定係5分鐘。

本質係你有冇打通呢4層:

  • 指令理解層(你講人話)  
  • 執行編排層(OpenClaw 調度)  
  • 生成能力層
    (libtv-skill + 模型)  
  • 結果交付層(可追蹤、可下載、可複用)

今日呢4層我已經跑通咗。

咁由5秒到5分鐘,本質係工程擴展,唔係由0到1。

連結俊哥 領OpenClaw資料 入百人交流羣

圖片

真正嘅分水嶺嚟咗

過去大家鬥邊個識寫prompt。

接下來鬥嘅係:

邊個可以穩定將內容「批量生產」出嚟。

唔係偶然出神圖。

係每日出成片。

唔係玩具。

係流水線。

我而家可以好負責任咁講一句:

OpenClaw + libtv-skill,呢條視頻自動化鏈路,已經具備實戰價值。

今日只係5秒起步,主要俊哥最近財政緊張,哈哈

下一步就係標準化模板 + 長視頻批量化。

呢個先係AI內容生產真正嘅絕招。

我係俊哥,前字節工程師,萬人AI編程教練
關注公眾號 俊哥AI出海,我會將呢套流程繼續拆成可複製嘅SOP。
X(Twitter):https://x.com/jungeAGI

先說結論。

今天這波,不是“又做了一個AI視頻”。

是我把 OpenClaw + libtv-skill 這條鏈路,硬生生跑通了。

而且是從翻車開始跑通的。

我一開始的指令很簡單:

“生成10秒內,美女在海邊散步。”

看起來很普通,對吧?

結果上來就給我一套組合拳:

  • vip專屬模型  
  • 請先開通會員  
  • 系統異常

我人都麻了。。。

但這裏最關鍵的,不是報錯。

是我今天第一次真正感受到:

OpenClaw 像總調度,libtv-skill 像執行引擎。

它不是“幫你點一個按鈕”。

它是把你一句人話,翻譯成完整工作流。

圖片

libtv-skill 到底幹了什麼?

很多人以為它只是“生圖生視頻”。

不。

今天實戰裏,它至少做了這幾件事:

  1. 創建會話(create session)  
  2. 自動發消息給後端生成引擎  
  3. 輪詢任務狀態(query session)  
  4. 處理失敗重試和模型切換  
  5. 返回可交付連結(圖片/視頻)

你看到的是一句話。

背後其實是一整套任務編排。視頻成品再下面:

LibTV 官網:
https://www.liblib.tv/
Github: 
https://github.com/libtv-labs/libtv-skills

我今天的真實跑通路徑(可複用)

第1步:直接生視頻(失敗)

先撞到會員權限牆,這一步很真實。

圖片

第2步:改策略,先出參考圖(成功)

先拿到一張高質量寫實圖,畫面、光線、構圖都穩定。

圖片

第3步:圖生5秒視頻(二次嘗試)

第一次還是被權限攔,開通會員後重跑。

第4步:成功出片(完成閉環)

最終拿到 mp4 成片連結,鏈路閉環完成。

圖片

為什麼我說“長視頻自動化已經跑通”?

因為本質不是5秒還是5分鐘。

本質是你有沒有打通這4層:

  • 指令理解層(你說人話)  
  • 執行編排層(OpenClaw 調度)  
  • 生成能力層
    (libtv-skill + 模型)  
  • 結果交付層(可追蹤、可下載、可複用)

今天這4層我已經跑通了。

那從5秒到5分鐘,本質是工程擴展,不是從0到1。

連結俊哥 領OpenClaw資料 進百人交流羣

圖片

真正的分水嶺來了

過去大家比誰會寫prompt。

接下來比的是:

誰能穩定把內容“批量生產”出來。

不是偶爾出神圖。

是每天出成片。

不是玩具。

是流水線。

我現在可以很負責地說一句:

OpenClaw + libtv-skill,這條視頻自動化鏈路,已經具備實戰價值。

今天只是5秒起步,主要俊哥最近財政緊張,哈哈

下一步就是標準化模板 + 長視頻批量化。

這才是AI內容生產真正的狠活。

我是俊哥,前字節工程師,萬人社羣AI編程教練
關注公眾號 俊哥AI出海,我會把這套流程繼續拆成可複製 SOP。
X(Twitter):https://x.com/jungeAGI