還在手動刷新聞?我用 OpenClaw 搭了一個 AI 情報助理:每天自動出簡報(可複製)

作者:SoSME的Lab
日期:2026年3月10日 下午2:27
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

OpenClaw 加 news-aggregator-skill 搭建 AI 情報助理,每日自動出中文簡報,減低資訊焦慮,提升產出。

整理版摘要

呢篇文章係一個技術經驗分享,作者發現自己每日手動刷新聞,資訊焦慮好嚴重,於是喺 GitHub 揾到一個叫 news-aggregator-skill 嘅 openclaw skill,決定自己搭建一個 AI 情報助理。佢想解決嘅問題係:點樣可以自動將多個平台嘅高價值資訊整合成一份中文簡報,令自己唔使再喺唔同平台之間切來切去,浪費注意力。

作者嘅做法係 clone 個 skill、建虛擬環境、安裝依賴,然後用 openclaw 運行。佢仲提供咗具體嘅指令用法,例如講句「如意如意」就彈出菜單,揀選編號就可以執行。文章提到舊模式係手動逐個平台睇,新模式係一鍵生成簡報,只需要做選擇同埋加工

整體結論係:呢個唔係一個普通嘅新聞工具,而係一個個人 AI 情報系統嘅雛形。作者認為未來人同人之間嘅差距,唔只係努力,而係邊個先將 AI 變成自己嘅系統。長期使用可以減低資訊焦慮,令產出更穩定。

  • 資訊焦慮嘅源頭唔係資訊量,而係切換平台同埋篩選嘅成本。
  • news-aggregator-skill 唔係單純聚合,係直接將多個平台嘅資訊整合成中文簡報。
  • 部署好簡單,只需要 clone、建虛擬環境、安裝依賴,用 macOS 都唔會踩坑。
  • 用「如意如意」指令可以叫出功能菜單,再輸入「跑一份 AI 日報」就搞掂。
  • 呢套系統係個人 AI 情報系統嘅雛形,持續用可以減低資訊焦慮,令產出更穩定。
值得記低
Skill github.com

news-aggregator-skill

用於 OpenClaw 嘅 AI 情報聚合技能,支援多平台資訊抓取同生成中文簡報

整理重點

你唔係缺資訊,係缺系統

今日你刷咗幾多資訊?公眾號、微博熱搜、GitHub 連結、AI 新聞……好似好努力學習,但最後剩低一句:我好似乜都睇咗,又好似乜都冇留低。真相係,你真正被榨乾嘅唔係資訊量,而係平台切換成本、初篩成本同埋自己整理成本。你一日嘅注意力,大部分死喺「切來切去」同「篩來篩去」。

平台切換成本

初篩成本

整理重點

呢個 Skill 到底厲害喺邊?

news-aggregator-skill 唔係單純幫你聚合連結,而係將多個平台嘅高價值資訊抓返嚟、彙總、輸出成中文結果。你拎住份簡報就可以繼續讀、繼續篩、繼續寫。

直接產出中文簡報

對比舊模式:你喺 HN 睇兩條 → GitHub 揾項目 → 國內媒體睇產業 → 微博睇情緒 → 收藏一堆 → 最後唔知寫乜。新模式係:一句指令 → 自動抓取 → 自動彙總 → 輸出中文簡報 → 你只需要做「選擇」同「加工」。

自動彙總,直接產出

整理重點

10 分鐘部署,macOS 都唔踩坑

如果你已經有 OpenClaw 環境,部署就三步:clone、建虛擬環境、裝依賴。

  1. 1 clone 倉庫:git clone https://github.com/cclank/news-aggregator-skill skills/news-aggregator-skill
  2. 2 進入目錄並建虛擬環境:cd skills/news-aggregator-skill && python3 -m venv .venv && source .venv/bin/activate
  3. 3 安裝依賴:pip install -r requirements.txt && pip install playwright feedparser lxml && python -m playwright install chromium

三個步驟就搞掂

程式內容 bash
git clone https://github.com/cclank/news-aggregator-skill skills/news-aggregator-skill
cd skills/news-aggregator-skill
python3 -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
pip install playwright feedparser lxml
python -m playwright install chromium

檢查安裝成功:終端輸入 openclaw skills check,見到「本地已安裝:news-aggregator-skill」就代表成功。

openclaw skills check 確認

整理重點

最爽用法:一句「如意如意」就彈出菜單

安裝好之後,你可以輸入「如意如意」嚟叫出功能菜單,揀選編號就可以執行。

如意如意——一鍵叫出菜單

常見指令:輸入「幫我跑一份 AI 日報」或者「生成 cron 任務,之後每日 8 點發送」,就會自動產出簡報。

自動生成 cron 定時任務

整理重點

你要嘅唔係工具,係系統

未來人同人之間嘅差距,唔只係誰更努力,而係誰先將 AI 變成自己嘅系統。有人將 AI 當成聊天對象,有人當搜索引擎,而你開始將 AI 變成真正嘅助理、雷達、執行器。

將 AI 變成系統

news-aggregator-skill 嘅價值唔係「幫你抓新聞」,而係幫你將碎片化嘅資訊輸入變成一個能持續運轉嘅個人情報系統。建議你照住做一次,然後連續用 7 日,你會明顯感到資訊焦慮降咗,產出更穩。

持續運轉嘅個人情報系統

你唔係冇資訊,你係欠一個可以將資訊變成成果嘅系統。

今日喺 GitHub 見到一個幾好嘅 skill:news-aggregator-skill

於是我就用news-aggregator-skill + OpenClaw 砌咗一個 AI 情報助理,每日自動抓 AI / 科技 / 財經熱點,直接整理成中文簡報。下面會講清楚成個過程,你跟住做就可以復刻。

💡 目錄導讀(3 分鐘睇完重點)

1)點解你越碌越焦慮:唔係資訊少,係切換成本太高

2)呢個 Skill 到底勁喺邊:唔係「聚合」,係「直接產出」

3)10 分鐘 set up(macOS 都唔會撞板):clone + .venv + playwright

4)最爽嘅用法:輸入「如意如意」 → 菜單彈出 → 揀編號開波

5)最後嘅結論:呢個唔係新聞工具,係你嘅「個人 AI 情報系統」雛形

你今日碌咗幾多資訊?

公眾號兩篇、微博熱搜一輪、羣組掉咗 3 個 GitHub 連結、又有人轉咗幾條 AI 新聞……表面睇你似喺「學習」,但最後通常淨係得一句話:我好似乜都睇曬,但係又好似乜都冇留住。

🚨 真相有啲刺心:

你真正被榨乾嘅唔係資訊量,而係平台切換成本 + 初篩成本 + 自己整理成本。你一日嘅注意力,大部分死喺「切來切去」同「篩來篩去」。


對比卡:手動刷新聞 vs AI 情報助理


一、呢舊嘢到底係乜?

我裝嘅係:news-aggregator-skill

你可以理解佢做:一個裝咗入 OpenClaw 嘅「AI 情報助理」。佢做嘅唔係「掉一堆連結俾你」,而係:將多個平台嘅高價值資訊抓返嚟、彙總、輸出成中文結果,你攞住就可以繼續讀、繼續篩、繼續寫。


GitHub 倉庫首頁:news-aggregator-skill

GitHub 倉庫首頁:news-aggregator-skill


二、點解我話佢唔係「睇新聞」,而係「提高產出」?

👨🏻 舊模式(手動碌)係咁樣:

HN 睇兩條 → GitHub 揾項目 → 國內媒體睇產業 → 微博睇情緒 → 收藏一堆 → 最後都係唔知寫乜。

🤖 新模式(叫 Skill 行)係咁樣:

一句指令 → 自動抓取 → 自動彙總 → 輸出中文簡報 → 你只需要做「選擇」同「加工」。

三、點樣 set up?

如果你已經有 OpenClaw 環境,set up 其實得三步:clone、起虛擬環境、裝依賴。

方法一:openclaw 對話


圖片


方法二:命令(複製就能行)


git clone https://github.com/cclank/news-aggregator-skill skills/news-aggregator-skill
cd skills/news-aggregator-skill
python3 -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
pip install playwright feedparser lxml
python -m playwright install chromium 


檢查係咪安裝成功:終端輸入


openclaw skills check


成功⬇️⬇️:本地已安裝:news-aggregator-skill 喺 skills 列表出現


本地已安裝:news-aggregator-skill 出現在 skills 列表


四、最爽嘅用法:一句「如意如意」,菜單直接彈出嚟


如意如意:一鍵調出功能菜單

如意如意:一鍵叫出功能菜單


五、輸出係點樣?(呢兩張圖就係答案)


實際結果頁:深度閲讀清單輸出示例


實際結果頁:深度閲讀清單輸出示例


精讀片段示例:把信息壓縮成可用結論


輸入「幫我行一份 AI 日報」


圖片


輸入“生成 cron 任務,之後每日 8 點發送


圖片


六、你要嘅唔係工具,係系統

未來人同人之間嘅差距,唔止係「邊個更努力」,而係:邊個先將 AI 變咗做自己嘅系統。

有人將 AI 當做傾偈對象;有人將 AI 當做搜尋引擎;亦有人開始將 AI 變成真正嘅助理、雷達、執行器。

news-aggregator-skill 嘅價值唔係「幫你抓新聞」,而係幫你將碎片化嘅資訊輸入,變成一個可以持續運作嘅個人情報系統。




👇 如果你都想要「AI 情報助理」

先跟住上面做一次,然後連續用 7 日。

你會明顯覺得:資訊焦慮低咗,產出更穩定。

覺得有用就點讚、睇嚇、分享到朋友圈三連支持 🙏🙏🙏

你不是缺信息,你缺的是一套能把信息變成結果的系統。

今天逛 GitHub發現一個不錯的 skill:news-aggregator-skill

於是我用news-aggregator-skill + OpenClaw搭了一個 AI 情報助理,每天自動抓 AI / 科技 / 財經熱點,直接整理成中文簡報。下面把全過程講清楚,你照着做就能復刻。

💡 導讀目錄(3 分鐘讀完核心)

1)為什麼你越刷越焦慮:不是信息少,是切換成本太高

2)這個 Skill 到底厲害在哪:不是“聚合”,是“直接產出”

3)10 分鐘部署(macOS 也不踩坑):clone + .venv + playwright

4)最爽的用法:輸入“如意如意” → 菜單彈出 → 選編號開跑

5)最後的結論:這不是新聞工具,是你的“個人 AI 情報系統”雛形

你今天刷了多少信息?

公眾號兩篇、微博熱搜一圈、羣裏甩了 3 個 GitHub 連結、又有人轉了幾條 AI 新聞……看起來你在“學習”,但最後常常只剩一句話:我好像什麼都看了,又好像什麼都沒留下。

🚨 真相有點扎心:

你真正被榨乾的不是信息量,而是平台切換成本 + 初篩成本 + 自己整理成本。你一天的注意力,大部分死在“切來切去”和“篩來篩去”。


對比卡:手動刷新聞 vs AI 情報助理


一、這玩意到底是什麼?

我裝的是:news-aggregator-skill

你可以把它理解成:一個裝進 OpenClaw 的“AI 情報助理”。它做的不是“給你丟一堆連結”,而是:把多個平台的高價值信息抓回來、彙總、輸出成中文結果,你拿着就能繼續讀、繼續篩、繼續寫。


GitHub 倉庫首頁:news-aggregator-skill

GitHub 倉庫首頁:news-aggregator-skill


二、為什麼我說它不是“看新聞”,而是“提高產出”?

👨🏻 舊模式(手動刷)長這樣:

HN 看兩條 → GitHub 找項目 → 國內媒體看產業 → 微博看情緒 → 收藏一堆 → 最後還是不知道寫啥。

🤖 新模式(讓 Skill 跑)是這樣:

一句指令 → 自動抓取 → 自動彙總 → 輸出中文簡報 → 你只需要做“選擇”和“加工”。

三、部署怎麼做?

如果你已經有 OpenClaw 環境,部署其實就三步:clone、建虛擬環境、裝依賴。

方法一:openclaw 對話


圖片


方法二:命令(複製就能跑)


git clone https://github.com/cclank/news-aggregator-skill skills/news-aggregator-skill
cd skills/news-aggregator-skill
python3 -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
pip install playwright feedparser lxml
python -m playwright install chromium 


檢查是否安裝成功:終端輸入


openclaw skills check


成功⬇️⬇️:本地已安裝:news-aggregator-skill 出現在 skills 列表


本地已安裝:news-aggregator-skill 出現在 skills 列表


四、最爽的用法:一句“如意如意”,菜單直接彈出來


如意如意:一鍵調出功能菜單

如意如意:一鍵調出功能菜單


五、輸出長什麼樣?(這兩張圖就是答案)


實際結果頁:深度閲讀清單輸出示例


實際結果頁:深度閲讀清單輸出示例


精讀片段示例:把信息壓縮成可用結論


輸入“幫我跑一份 AI 日報”


圖片


輸入“生成 cron 任務,之後每日8點發送


圖片


六、你要的不是工具,是系統

未來人與人的差距,不只是“誰更努力”,而是:誰先把 AI 變成了自己的系統。

有人把 AI 當聊天對象;有人把 AI 當搜索引擎;也有人開始把 AI 變成真正的助理、雷達、執行器。

news-aggregator-skill 的價值不是“幫你抓新聞”,而是幫你把碎片化的信息輸入,變成一個能持續運轉的個人情報系統。




👇 如果你也想要“AI 情報助理”

先照着上面做一遍,然後連續用 7 天。

你會明顯感到:信息焦慮降了,產出更穩了。

覺得有用點贊、在看、分享到朋友圈三連支持 🙏🙏🙏