拆解 OpenClaw 07 | ClawHub 萬把個 Skill,真正值得裝的就這幾個
整理版優先睇
ClawHub 上萬個 Skill,真正值得裝的只有五六個——作者分享點樣揀、點樣避坑。
呢篇文章係「拆解 OpenClaw」系列第七篇,作者之前寫過兩篇 Claude Code Skills 嘅實戰文章,今次聚焦 OpenClaw 嘅 Skill 生態。開頭澄清咗 Skill 唔係 OpenClaw 專利,Claude Code 都有,但 OpenClaw 靠 ClawHub 集中式 Marketplace 有萬把個 Skill,規模大但質素參差。
作者體驗到大部分人裝完 OpenClaw 就會去刷 Marketplace,但裝咗二三十個之後發現大部分唔好用、唔匹配或者互相衝突,真正日常用到嘅只有五六個。文章從 ClawHub Popular 排行榜篩選出六個適合國內開發者嘅 Skill,包括 self-improving-agent、Tavily Search、Summarize、Github、Ontology、Weather,每個都有簡單說明同安裝命令。同時亦詳細拆解咗踩過嘅坑,例如 Token 消耗驚人(空會話已經 136K input token)、Skill 衝突、安全問題。
作者提供咗識別靠譜 Skill 嘅五個方法:睇作者其他作品、權限聲明、公開代碼、社區評價,同埋自己寫 Skill。最後對比咗 Claude Code 嘅 Skill + MCP 雙軌制,認為 OpenClaw 嘅 Marketplace 審核機制仍然初步,需要小心。整體結論係:少即是多,先從 53 個 bundled S…
- 結論:ClawHub 上萬個 Skill 中,真正值得裝嘅只有五六個,其他大部分食塵或者有衝突。
- 方法:先熟讀 OpenClaw 自帶嘅 53 個 bundled Skill,再從 Popular 排行揀三五個高質量補充,唔好一次裝太多。
- 差異:OpenClaw 集中式 Marketplace 規模大但審核被動,Claude Code 分散但 Token 控制更好,雙軌制(Skill + MCP)安全邊界更清晰。
- 啟發:Token 消耗係主要隱形成本,空會話已經 136K input token,Skill 描述係元兇之一,要留意。
- 可行動點:裝每個 Skill 前,檢查作者檔案、權限聲明、公開代碼,並搜 Reddit/HN 真實評價,避免惡意 Skill。
ClawHub - OpenClaw Skill 註冊中心
集中式 Marketplace,可以一鍵安裝 Skill
Summarize
萬能摘要工具,支援網頁、PDF、圖片、音頻、YouTube,作者係 OpenClaw 創辦人
開箱即食?唔好急,先看清楚生態
呢篇文章係「拆解 OpenClaw」系列第七篇。作者之前寫過兩篇 Claude Code Skills 嘅實戰文章,今次聚焦 OpenClaw 嘅 Skill 生態。
Claude Code 其實係最早引入 Skill 機制嘅 AI 編程工具之一
,但 OpenClaw 靠 ClawHub 集中式 Marketplace 有萬把個 Skill,規模大好多。
大部分人裝完 OpenClaw 就會去刷 Marketplace,但裝咗二三十個之後發現大部分唔好用
作者嘅體驗同呢個現象高度一致:真正日常用到嘅只有五六個,其他食塵或者互相衝突。
Top 6 精選 Skill:作者實測後留下的
ClawHub Popular 排行榜篩選出六個適合國內開發者嘅 Skill
篩選標準係下載量過萬、有持續更新、國內網絡正常用到。
- 1 self-improving-agent:ClawHub 下載量第一,能夠捕獲 Agent 執行過程嘅錯誤同經驗教訓,自動優化後續行為。
- 2 Tavily Search:AI 優化嘅網絡搜索,返回結構化結果,比 Agent 自帶搜索強好多,需要 API Key(有免費額度)。
- 3 Summarize:萬能摘要工具,支援網頁、PDF、圖片、音頻、YouTube 影片,日常用得最多。作者係 OpenClaw 創辦人 Peter Steinberger,相當於官方出品。
- 4 Github:透過 gh CLI 操作 GitHub——Issue、PR、代碼搜索、Actions,全喺對話搞掂,國內開發者剛需。
- 5 Ontology:結構化知識圖譜,幫 Agent 做記憶管理,跨會話記住項目上下文、技術偏好、歷史決策。
- 6 Weather:天氣查詢,唔使 API Key,開箱即用,亦可以驗證 OpenClaw 係咪正常運作。
安裝方法係一行命令:clawhub install <skill-name>,裝完要重啓會話先生效。
OpenClaw 自帶 53 個 bundled Skill,大部分基礎需求呢 53 個就夠
Token 食錢、衝突不斷、安全風險點樣防?
Token 消耗係最扎心嘅問題。GitHub Discussion #1949 實測:空會話、零對話歷史,光系統 prompt + 工具描述 + Skill 描述就吃掉 136K input token。
會話越長,成本指數級增長
Skill 衝突都好常見。OpenClaw 有優先級規則,但唔同名 Skill 對 system prompt 修改方向矛盾時,Agent 行為會變得唔穩定。
識別靠譜 Skill 嘅五個方法
- 睇作者其他作品:一個開發者有多個 Skill 且更新正常,可信度較高;只發一個就消失嘅,要小心。
- 睇權限聲明:一個筆記整理 Skill 需要網絡訪問權限?唔合理。一個文件管理 Skill 需要執行任意命令?危險。
- 睇代碼:花五分鐘掃 GitHub 代碼,睇有冇可疑網絡請求、讀取環境變量或 SSH 密鑰嘅邏輯。
- 睇社區評價:去 Reddit 或 HN 搜討論,真實用戶評價比商店評分可靠。
- 自己寫 Skill:門檻唔高,可以參考 Anthropic 官方 template-skill 或者 mcp-builder 嘅組織方式。
自己寫 Skill 唔難,可以參考官方 template
少即是多:先從 bundled 開始,再精挑細選
作者最後對比咗 OpenClaw 同 Claude Code 嘅生態:Claude Code 嘅 Skill + MCP 雙軌制長期更值得睇好,因為各司其職、安全邊界清晰。
Marketplace 模式短期生態爆發,但審核同安全遲早會變成瓶頸
選 Skill 嘅原則:少即是多。裝咗又卸掉嘅不下二十個,最後留低嘅就係上面推薦嗰幾個。
建議路徑:先翻曬 53 個 bundled Skill,再從 Popular 排行揀三五個高質量補充
留意避開下載量虛高但 Star 數極低嘅 Skill。
下載量可以刷,Star 數造假成本更高,兩個指標要一齊睇
💡 閲讀前記得關注同埋星標,咁就可以及時收到更新推送
「拆解 OpenClaw」系列第七篇。之前講過 Marketplace 入面嘅惡意 Skill 安全問題,但係撇開安全唔講,ClawHub 萬把個 Skill 裏面確係有唔少好嘢。呢篇就同大家傾下點樣從入面揾到好嘢,同埋點樣避開陷阱。

先澄清一個常見嘅誤解:Skill 唔係 OpenClaw 嘅專利。Claude Code 其實係最早引入 Skill 機制嘅 AI 編程工具之一 -- Anthropic 官方嘅 Skills 倉庫(github.com/anthropics/skills)入面有 document-skills、canvas-design、mcp-builder 等一批官方 Skill,社區都有 awesome-agent-skills 呢啲收錄咗 380+ Skills 嘅合集。我之前寫過兩篇 Claude Code Skills 嘅實戰文章 -- 「唔好再重複調教 AI 喇!Claude Skills 令你嘅工作方式可以打包」講 Skills 嘅機制同設計哲學,「一步一步教你創建第一個用得嘅 Claude Code Skill」係由零到一嘅實戰教程 -- 有興趣嘅可以對住嚟睇。
兩邊嘅核心分別唔在於「有冇 Skill」,而係在於生態規模。Claude Code 都可以透過 npx add-skill 或 /plugin install 一鍵安裝 Skill,但生態仲係比較分散 -- 官方倉庫、社區 awesome list、第三方插件各自為政。OpenClaw 呢邊靠 ClawHub 呢個集中式 Marketplace 將成萬個 Skill 聚集埋一齊,瀏覽、排行、一鍵安裝乜都有,但質量同安全就要靠平台審核喇。
呢個生態有幾犀利?Medium 上有個帖嘅標題叫 "Stop Watching OpenClaw Install Tutorials — This Is How You Actually Tame It"。作者嘅核心論點係:大部分人安裝完 OpenClaw 之後就去逛 Skill Marketplace,好似行應用商店咁裝咗一大堆,結果發現大部分一係唔好用、一係同自己嘅場景唔匹配、一係互相衝突。
呢個同我嘅體驗高度一致。最初我都係見到咩好玩就裝咩,裝咗二三十個。後來發現,真正日常用緊嘅得五六個。其他嘅一係擺喺度冇用、一係因為安全原因俾我剷咗。
Skill 到底係乜嘢
一句講曬:Skill = 固化嘅專業知識 + 可重複用嘅工作流程 + 按需要加載。本質上就係一個文件夾,裏面有一個 SKILL.md 定義咗「呢個 Skill 可以做啲乜」同埋「點樣做」,再加上可選嘅腳本同資源檔案。
關於 Skill 嘅機制 -- 目錄結構點樣組織、SKILL.md 入面寫啲乜、漸進式披露點樣慳 Token、同 MCP 有咩分別 -- 前面提到嗰篇 Skills 文章已經拆得好詳細,呢度唔重複。
呢篇集中講 OpenClaw 嘅 Skill 生態本身:邊啲好用、邊啲有伏、點樣裝、點樣揀。
好用嘅 Skill -- 具體推薦
先講安裝方法。ClawHub(clawhub.ai)係 OpenClaw 嘅官方 Skill 註冊中心,GitHub 倉庫喺 openclaw/clawhub。安裝一個 Skill 只需要一行指令:
clawhub install <skill-name>Skill 會安裝到 ~/.openclaw/skills/ 目錄下面。裝完之後要重新啟動 OpenClaw 會話先至會生效 -- Skill 係啟動嘅時候載入嘅,當前會話唔會自動認到新裝嘅 Skill。clawhub search "關鍵詞" 可以搜尋,clawhub list 睇已安裝列表。
下面係由 ClawHub Popular 排行榜篩選出嚟、適合香港開發者嘅 Skill。篩選標準:下載量過萬、有持續更新、本地網絡可以正常使用(排咗 Google Workspace、Discord、Polymarket、Sonos 呢啲喺香港用唔到或者太冷門嘅)。
Top 1 -- self-improving-agent
ClawHub 下載量第一。佢可以捕捉 Agent 執行過程入面嘅錯誤同經驗教訓,自動優化之後嘅行為。講白啲就係令 Agent 越用越聰明。作者 @pskoett。
clawhub install self-improving-agentTop 2 -- Tavily Search
AI 優化嘅網絡搜尋,回傳結構化嘅結果,比 Agent 本身嘅搜尋能力強好多。需要 Tavily 嘅 API Key(有免費額度)。作者 @arun-8687。
clawhub install tavily-searchTop 3 -- Summarize
萬能摘要工具,支援網頁、PDF、圖片、音頻、YouTube 影片。日常用最多嘅場景 -- 掟一個連結入去,幾秒鐘就出到摘要。作者 @steipete(OpenClaw 創辦人 Peter Steinberger),算係官方出品。
clawhub install summarizeTop 4 -- Github
通過 gh CLI 操作 GitHub -- Issue、PR、程式碼搜尋、Actions,全部喺對話入面完成。同樣係 @steipete 出品。香港開發者幾乎個個都有 GitHub 帳號,呢個屬於必需品。
clawhub install githubTop 5 -- Ontology
結構化知識圖譜,畀 Agent 做記憶管理。用過之後 Agent 可以跨會話記低你嘅項目上下文、技術偏好、歷史決策。作者 @oswalpalash。
clawhub install ontologyTop 6 -- Weather
天氣查詢,唔需要 API Key,開箱即用。功能簡單但實用,係驗證 OpenClaw 係咪正常運作嘅好測試用例。@steipete 出品。
clawhub install weather講下 Highlighted 區嘅幾個:Trello、Slack、Caldav Calendar 都唔錯,但係 Slack 本地網絡連唔到,Trello 都幾冷門,睇自己需求嚟裝。
另外提一提:OpenClaw 自帶 53 個 bundled Skill,唔需要由 ClawHub 額外安裝,喺配置入面啟用就得。大部分基本需求呢 53 個已經夠用。社區精選列表可以睇 awesome-openclaw-skills。
踩過嘅坑 -- 社區入面嘅真實吐槽
唔止係我踩過嘅坑,社區入面嘅吐槽帖一揾就一大堆。
最肉赤嘅係 Token 消耗。GitHub Discussion #1949 入面有人實測:一個空會話、零對話歷史,淨係系統 prompt + 工具描述 + Skill 描述已經食咗 136K input token。而且 OpenClaw 會將成個對話歷史儲存做 JSONL 檔案,每次新請求都將完整歷史傳畀模型 -- 會話越長,成本指數級增長。呢個問題嚴重到社區專門有人做咗 openclaw-token-optimizer 呢個開源工具嚟緩解。Apiyi 嘅一篇分析將 Token 消耗高嘅原因拆成咗 6 條,其中 Skill 描述塞滿上下文係主要元兇之一。
Skill 衝突都係老問題。OpenClaw 有優先級規則:workspace skill > ~/.openclaw/skills > bundled skill,同名高優先級覆蓋低優先級。但係唔同名嘅 Skill 之間如果對 system prompt 嘅修改方向互相矛盾,Agent 嘅行為就會變得難以預測。HN 上有個真實用戶經驗帖,反映喺 C#/TypeScript monorepo 環境下,Skill 成日失敗或者走捷徑跳過關鍵步驟。
安全問題第三篇已經詳細講過,唔重複。呢度只係強調一點:VirusTotal 嘅自動掃描可以捉到已知嘅惡意程式碼,但捉唔到「功能正常但偷偷讀環境變數」呢類灰色操作。裝嘅每一個 Skill 都係一個潛在嘅風險點。
點樣識別可靠嘅 Skill
用咗一個月總結出嚟嘅經驗。
下載量高唔代表安全。第三篇講嘅惡意 Skill 事件就係最好嘅反例 -- 下載量第一嘅 Skill 係惡意軟件。
睇作者嘅其他作品。如果一個開發者喺 Marketplace 上面有多個 Skill,而且更新頻率正常,可信程度相對高啲。一個只係發咗一個 Skill 就消失嘅帳號,要小心啲。
睇權限聲明。一個筆記整理 Skill 需要網絡訪問權限?唔合理。一個檔案管理 Skill 需要執行任意命令嘅權限?危險。權限同功能唔匹配嘅 Skill,直接跳過。
睇程式碼。Skill 嘅程式碼喺 GitHub 上面係公開嘅(大部分係)。花五分鐘掃一眼,睇下有冇可疑嘅網絡請求、有冇讀取環境變數或 SSH 密鑰嘅邏輯。唔需要逐行審計,粗略睇一次就可以排除大部分明顯嘅惡意程式碼。
睇社區評價。唔係睇 Marketplace 上面嘅評分(呢啲容易造馬),而係去 Reddit 同 HN 搜下有冇人討論過呢個 Skill。真實用戶嘅評價比商店評分可靠好多。
自己寫 Skill -- 門檻冇你想像咁高
如果你有編程底子,自己寫一個 Skill 其實唔難。OpenClaw 同 Claude Code 都支援自定義 Skill,核心思路係一樣嘅:一段結構化嘅指令 + 可選嘅程式碼邏輯,打包成一個可以重複使用嘅能力單元。
我之前喺 Claude Code 上面由零開始做咗一個程式碼審查 Skill(code-review-assistant),完整過程寫咗喺「一步一步教你創建第一個用得嘅 Claude Code Skill」呢篇文章入面 -- 由 SKILL.md 嘅 YAML 頭點樣寫、審查維度點樣定義、到 Python 複雜度檢測腳本點樣整合,30 分鐘搞掂,附埋完整程式碼。如果你想喺 OpenClaw 上面寫 Skill,底層思路係相通嘅,只係打包同分發方式唔同。
Anthropic 官方倉庫入面都有個 template-skill,就係最基本嘅 Skill 模板,改一改就可以用。複雜啲嘅可以參考 mcp-builder Skill 嘅組織方式 -- 主檔案 + reference 子目錄 + scripts 子目錄,層次分明。
寫 Skill 嘅過程本身都會令你更瞭解工具嘅運作機制。當你知道 Skill 係點樣注入上下文、點樣呼叫工具嘅時候,你對成個系統嘅安全邊界就會有更清晰嘅認識。無論你係喺 OpenClaw 定係 Claude Code 上面寫,呢個認知都通用。
同 Claude Code Skill 生態嘅比較
分發模式嘅區別開頭已經講咗,呢度補充一個技術層面嘅差異。兩邊都有漸進式披露機制 -- 啟動個陣只係載入 Skill 嘅 name 同 description,需要用嗰陣先讀完整 SKILL.md。但實際效果差別唔細:Claude Code 呢邊 10 個 Skill 啟動成本大約 500 token,控制得好 tight;OpenClaw 嗰邊雖然都有類似機制,但加上系統 prompt、工具描述等框架開銷,空會話已經 136K token 起步(前面踩坑嗰節提到),Skill 裝得多咗上下文膨脹依然明顯。
長遠嚟睇我更睇好 Claude Code 嘅 Skill + MCP 雙軌制 -- Skill 負責本地工作流程封裝,MCP 負責外部工具接入,各司其職,安全邊界清晰。Marketplace 模式短期內生態爆發咗,但審核同安全遲早會變成瓶頸。
審核機制嘅現狀
坦白講,目前 OpenClaw 嘅 Skill 審核機制相當初級。
主要靠社區舉報。有人發現某個 Skill 有問題,喺 GitHub 上面開 issue 或者喺社區入面嗌一聲,OpenClaw 團隊見到就會下架。呢種被動式審核可以捉到已經暴露嘅惡意 Skill,但捉唔到仲未俾人發現嘅。
v2026.2.21 版本做咗一啲改進 -- Skill 安裝嗰陣嘅權限聲明更清晰,高危權限組合會觸發警告。但係呢個離真正嘅安全審核仲有好遠距離。理想狀態應該係:每個 Skill 上架之前都經過自動化程式碼掃描 + 人工審查,類似 Apple App Store 嘅審核流程。當然,對一個開源項目嚟講,要做到呢一步,需要嘅資源唔係一個小數目。
基金會化之後,呢個問題可能會改善亦都可能惡化。改善嘅可能性:基金會有更多資源投入審核基礎設施。惡化嘅可能性:核心維護者 Peter Steinberger 去咗 OpenAI,審核方面嘅優先級可能會下降。
揀 Skill 嘅原則
少即是多。上面推薦嗰幾個就係我自己反覆篩選之後留低嘅 -- 裝咗又剷咗嘅唔少過二十個,原因各異:功能雞肋、太食 Token、權限要求唔合理、同其他 Skill 衝突。
建議路徑:先將 53 個 bundled Skill 睇一次,再從 ClawHub Popular 排行入面揀三五個高質素嘅補充。注意避開下載量虛高但 Star 數極低嘅 Skill -- 下載量可以造馬,Star 數造假成本更高,兩個指標要一齊睇。
下一篇講替代方案 -- 除咗 OpenClaw,仲有 Nanobot、NanoClaw、Claude Code 等選擇。430K+ 行 vs ~4K 行,到底點樣揀。你裝咗幾多個 Skill?最推薦邊個?最後悔裝邊個? 留言區傾下啦。

💡 閲讀前記得關注+星標,及時獲取更新推送
「拆解 OpenClaw」系列第七篇。前面講過 Marketplace 惡意 Skill 的安全問題,但撇開安全不談,ClawHub 萬把個 Skill 裏確實有不少好東西。這篇聊聊怎麼從裏面淘金,以及怎麼避開地雷。

先澄清一個常見誤解:Skill 不是 OpenClaw 的專利。Claude Code 其實是最早引入 Skill 機制的 AI 編程工具之一 -- Anthropic 官方的 Skills 倉庫(github.com/anthropics/skills)裏有 document-skills、canvas-design、mcp-builder 等一批官方 Skill,社區也有 awesome-agent-skills 這樣收錄了 380+ Skills 的合集。我之前寫過兩篇 Claude Code Skills 的實戰文章 -- 「別再重複調教 AI 了!Claude Skills 讓你的工作方式可打包」講 Skills 的機制和設計哲學,「手把手教你創建第一個能用的 Claude Code Skill」是從零到一的實戰教程 -- 有興趣的可以對照着看。
兩邊的核心區別不在於"有沒有 Skill",而在於生態規模。Claude Code 也能通過 npx add-skill 或 /plugin install 一鍵安裝 Skill,但生態還比較分散 -- 官方倉庫、社區 awesome list、第三方插件各管各的。OpenClaw 這邊靠 ClawHub 這個集中式 Marketplace 萬把個 Skill 聚在一起,瀏覽、排行、一鍵安裝都有,但質量和安全就得靠平台審核了。
這個生態有多野?Medium 上有個帖子標題叫 "Stop Watching OpenClaw Install Tutorials — This Is How You Actually Tame It"。作者的核心論點是:大部分人安裝完 OpenClaw 之後就去刷 Skill Marketplace 了,像逛應用商店一樣裝了一堆,結果發現大部分要麼不好用、要麼跟自己的場景不匹配、要麼互相沖突。
這跟我的體驗高度一致。剛開始我也是看什麼好玩裝什麼,裝了二三十個。後來發現,真正日常在用的也就五六個。其他的要麼吃灰、要麼因為安全原因被我卸掉了。
Skill 到底是什麼
一句話:Skill = 固化的專業知識 + 可複用的工作流 + 按需加載。本質上就是一個文件夾,裏面一個 SKILL.md 定義了"這個 Skill 能幹什麼"和"怎麼幹",加上可選的腳本和資源文件。
關於 Skill 的機制 -- 目錄結構怎麼組織、SKILL.md 裏寫什麼、漸進式披露怎麼省 Token、跟 MCP 有什麼區別 -- 前面提到的那篇 Skills 文章裏拆得很細了,這裏不重複。
這篇聚焦 OpenClaw 的 Skill 生態本身:哪些好用、哪些有坑、怎麼裝、怎麼選。
好用的 Skill -- 具體推薦
先說安裝方式。ClawHub(clawhub.ai)是 OpenClaw 的官方 Skill 註冊中心,GitHub 倉庫在 openclaw/clawhub。安裝一個 Skill 一行命令:
clawhub install <skill-name>Skill 會裝到 ~/.openclaw/skills/ 目錄下。裝完後要重啓 OpenClaw 會話才能生效 -- Skill 是啓動時加載的,當前會話不會自動識別新裝的 Skill。clawhub search "關鍵詞" 可以搜,clawhub list 看已裝列表。
下面是從 ClawHub Popular 排行榜裏篩出來的、適合國內開發者的 Skill。篩選標準:下載量過萬、有持續更新、國內網絡能正常使用(排掉了 Google Workspace、Discord、Polymarket、Sonos 這些國內用不了或太小眾的)。
Top 1 -- self-improving-agent
ClawHub 下載量第一。它能捕獲 Agent 執行過程中的錯誤和經驗教訓,自動優化後續行為。說白了就是讓 Agent 越用越聰明。作者 @pskoett。
clawhub install self-improving-agentTop 2 -- Tavily Search
AI 優化的網絡搜索,返回結構化的結果,比 Agent 自帶的搜索能力強不少。需要 Tavily 的 API Key(有免費額度)。作者 @arun-8687。
clawhub install tavily-searchTop 3 -- Summarize
萬能摘要工具,支持網頁、PDF、圖片、音頻、YouTube 視頻。日常用得最多的場景 -- 丟一個連結進去,幾秒鐘出摘要。作者 @steipete(OpenClaw 創始人 Peter Steinberger),相當於官方出品。
clawhub install summarizeTop 4 -- Github
通過 gh CLI 操作 GitHub -- Issue、PR、代碼搜索、Actions,全在對話裏完成。同樣是 @steipete 出品。國內開發者幾乎人手一個 GitHub 賬號,這個屬於剛需。
clawhub install githubTop 5 -- Ontology
結構化知識圖譜,給 Agent 做記憶管理。用過之後 Agent 能跨會話記住你的項目上下文、技術偏好、歷史決策。作者 @oswalpalash。
clawhub install ontologyTop 6 -- Weather
天氣查詢,不需要 API Key,開箱即用。功能簡單但實用,驗證 OpenClaw 是否正常工作的好測試用例。@steipete 出品。
clawhub install weather說一下 Highlighted 區的幾個:Trello、Slack、Caldav Calendar 也不錯,但 Slack 國內網絡不通,Trello 也偏小眾,看自己需求裝。
另外提一嘴:OpenClaw 自帶 53 個 bundled Skill,不需要從 ClawHub 額外安裝,在配置裏啓用就行。大部分基礎需求這 53 個就夠了。社區精選列表可以看 awesome-openclaw-skills。
踩過的坑 -- 社區裏的真實吐槽
不只是我踩過的坑,社區裏的吐槽帖子一搜一大把。
最扎心的是 Token 消耗。GitHub Discussion #1949 裏有人實測:一個空會話、零對話歷史,光系統 prompt + 工具描述 + Skill 描述就吃掉 136K input token。而且 OpenClaw 會把整個對話歷史存成 JSONL 文件,每次新請求都把完整歷史發給模型 -- 會話越長,成本指數級增長。這個問題嚴重到社區專門有人做了 openclaw-token-optimizer 這個開源工具來緩解。Apiyi 的一篇分析把 Token 消耗高的原因拆成了 6 條,其中 Skill 描述塞滿上下文是主要元兇之一。
Skill 衝突也是老問題。OpenClaw 有優先級規則:workspace skill > ~/.openclaw/skills > bundled skill,同名高優先級覆蓋低優先級。但不同名 Skill 之間要是對 system prompt 的修改方向互相矛盾,Agent 行為就不可預測了。HN 上有個真實用戶經驗帖,反饋在 C#/TypeScript monorepo 環境下,Skill 經常失敗或者走捷徑跳過關鍵步驟。
安全問題第三篇已經詳細講過,不重複。這裏只強調一點:VirusTotal 的自動掃描能抓到已知惡意代碼,但抓不到"功能正常但偷偷讀環境變量"這種灰色操作。裝的每一個 Skill 都是一個潛在的風險點。
怎麼識別靠譜的 Skill
用了一個月總結出來的經驗。
下載量高不等於安全。第三篇講的惡意 Skill 事件就是最好的反例 -- 下載量第一的 Skill 是惡意軟件。
看作者的其他作品。如果一個開發者在 Marketplace 上有多個 Skill,而且更新頻率正常,可信度相對高一些。一個只發了一個 Skill 就消失的賬號,謹慎對待。
看權限聲明。一個筆記整理 Skill 需要網絡訪問權限?不合理。一個文件管理 Skill 需要執行任意命令的權限?危險。權限和功能不匹配的 Skill,直接跳過。
看代碼。Skill 的代碼在 GitHub 上是公開的(大部分是)。花五分鐘掃一眼,看有沒有可疑的網絡請求、有沒有讀取環境變量或 SSH 密鑰的邏輯。不需要逐行審計,粗看一遍就能排除大部分明顯的惡意代碼。
看社區評價。不是看 Marketplace 上的評分(這個容易刷),而是去 Reddit 和 HN 搜搜有沒有人討論過這個 Skill。真實用戶的評價比商店評分可靠得多。
自己寫 Skill -- 門檻沒你想的高
如果你有編程基礎,自己寫一個 Skill 其實不難。OpenClaw 和 Claude Code 都支持自定義 Skill,核心思路是一樣的:一段結構化的指令 + 可選的代碼邏輯,打包成一個可複用的能力單元。
我之前在 Claude Code 上從零做了一個代碼審查 Skill(code-review-assistant),完整過程寫在了「手把手教你創建第一個能用的 Claude Code Skill」這篇文章裏 -- 從 SKILL.md 的 YAML 頭怎麼寫、審查維度怎麼定義、到 Python 複雜度檢測腳本怎麼集成,30 分鐘搞定,附了完整代碼。如果你想在 OpenClaw 上寫 Skill,底層思路是相通的,只是打包和分發方式不同。
Anthropic 官方倉庫裏也有個 template-skill,就是最基礎的 Skill 模板,改改就能用。複雜一點的可以參考 mcp-builder Skill 的組織方式 -- 主文件 + reference 子目錄 + scripts 子目錄,層次分明。
寫 Skill 的過程本身也讓你更理解工具的運行機制。當你知道 Skill 是怎麼注入上下文的、是怎麼調用工具的,你對整個系統的安全邊界會有更清晰的認知。不管你是在 OpenClaw 還是 Claude Code 上寫,這個認知都通用。
跟 Claude Code Skill 生態的對比
分發模式的區別開頭已經說了,這裏補充一個技術層面的差異。兩邊都有漸進式披露機制 -- 啓動時只加載 Skill 的 name 和 description,需要用的時候才讀完整 SKILL.md。但實際效果差別不小:Claude Code 這邊 10 個 Skill 啓動成本約 500 token,控制得很緊;OpenClaw 那邊雖然也有類似機制,但加上系統 prompt、工具描述等框架開銷,空會話就 136K token 起步(前面踩坑那節提到的),Skill 裝多了上下文膨脹依然明顯。
長期看我更看好 Claude Code 的 Skill + MCP 雙軌制 -- Skill 管本地工作流封裝,MCP 管外部工具接入,各司其職,安全邊界清晰。Marketplace 模式短期內生態爆發了,但審核和安全遲早會成為瓶頸。
審核機制的現狀
坦白說,目前 OpenClaw 的 Skill 審核機制相當初級。
主要靠社區舉報。有人發現某個 Skill 有問題,在 GitHub 上提 issue 或者在社區裏喊一嗓子,OpenClaw 團隊看到了就下架。這種被動式審核能抓到已經暴露的惡意 Skill,但抓不到還沒被發現的。
v2026.2.21 版本做了一些改進 -- Skill 安裝時的權限聲明更明確了,高危權限組合會觸發警告。但這離真正的安全審核還很遠。理想狀態應該是:每個 Skill 上架前都經過自動化代碼掃描 + 人工審查,類似 Apple App Store 的審核流程。當然,對於一個開源項目來說,要做到這一步,需要的資源不是小數目。
基金會化之後,這個問題可能會改善也可能會惡化。改善的可能性:基金會有更多資源投入審核基礎設施。惡化的可能性:核心維護者 Peter Steinberger 去了 OpenAI,審核方面的優先級可能會下降。
選 Skill 的原則
少即是多。上面推薦的那幾個就是我自己反覆篩選後留下來的 -- 裝了又卸掉的不下二十個,原因各異:功能雞肋、太吃 Token、權限要求不合理、跟其他 Skill 衝突。
建議路徑:先把 53 個 bundled Skill 翻一遍,再從 ClawHub Popular 排行裏挑三五個高質量的補充。注意避開下載量虛高但 Star 數極低的 Skill -- 下載量可以刷,Star 數造假成本更高,兩個指標要一起看。
下一篇聊替代方案 -- 除了 OpenClaw,還有 Nanobot、NanoClaw、Claude Code 等選擇。430K+ 行 vs ~4K 行,到底怎麼選。你裝了多少個 Skill?最推薦哪個?最後悔裝哪個? 評論區聊聊呢。
