開源「伯樂Skill」,讓你和Agent同時進化成AI熱點懂王!
整理版優先睇
開源伯樂Skill:判斷AI信息源質素,幫你揾出值得長期追更的千里馬
呢篇文章係由卡爾撰寫,佢係一位長期關注AI資訊嘅開發者,累積咗150+個信息源。佢發現好多人(包括自己)喺管理信息源時都會踩坑:一開始瘋狂訂閲RSS,結果信息過載;後來用AI做預處理,但失去咗原始來源嘅可信度。整體結論係:真正嘅安全感唔係信息量,而係判斷力。伯樂Skill就係為咗幫你判斷一個信息源值唔值得長期追更、點樣穩定接入,而唔係做多一個聚合站。
伯樂Skill嘅核心方法係「睇馬三絕招」:第一,先判斷網站本身有冇更穩定嘅Agent入口(如RSS、API),而非硬扒網頁;第二,區分一手源(負責可信度)同聚合源(負責廣度),保留兩層角色;第三,優化接入策略,例如X API只睇24小時、每賬號最多3條新tweet,降低成本。佢仲會為每個新信息源做7天觀察期,內容差異大過65%先保留。
作者分享咗自己嘅進化史:由執著RSS、到用AI預處理、再到整AI News Radar,最後先明白固定站點唔可以滿足所有人,因為每個人嘅信息需求唔同。伯樂Skill嘅價值就係畀你可以喺大量源入面揀適合自己嘅10個,而非全盤接收。
- 伯樂Skill唔係廣撒網抓新聞,而係幫你判斷信息源值唔值得長期追更,同埋點樣穩定接入。
- 判斷三招:先揾網站本身嘅Agent入口(RSS/API)、區分一手源同聚合源、優化接入策略(如X API限24小時)。
- 每個新信息源會經過7天觀察期,內容差異大過65%先保留,避免重複。
- 作者踩過嘅坑:執著RSS導致信息過載、AI預處理失去原始來源可信度、固定站點滿足唔到個性化需求。
- 可行動點:fork GitHub倉庫,將伯樂Skill指令丟畀Agent,部署自動更新嘅AI日報網站。
伯樂Skill(ai-news-radar)
GitHub倉庫,用嚟判斷AI信息源質素、穩定接入,可配合Agent使用。
AI News Radar 可視化網頁
24小時更新嘅AI熱點網站,包含分類、時間軸、原始連結同信源健康狀態。
Follow Builders Skill
追蹤X上創業者、產品經理同工程師嘅Skill,輸出JSON,可直接可視化。
伯樂嘅睇馬三絕招
伯樂Skill判斷信息源嘅第一招:先睇網站自己有冇更穩定嘅Agent入口,例如RSS、API,而唔係硬扒網頁。
例如AI HOT呢個站,本身提供咗Skill、RSS同REST API三條路。伯樂Skill會自動掃描首頁,發現呢啲路徑後優先走結構化接入,精選內容用/feed.xml,全部內容用/feed/all.xml,日報用/feed/daily.xml,開發者可以按習慣調節信息密度。
第二招:區分一手源同聚合源。一手源(如OpenAI、Anthropic)負責可信度,聚合源(如TechURLs、Info Flow)負責廣度。
Info Flow呢類聚合源,唔應該當成一篇文咁讀,而係要識別頁面入面公開嘅feed列表,逐個讀子feed,壞咗就跳過,唔會拖垮整條線。
第三招:優化接入策略,降低運作成本。以X API為例,只睇過去24小時、每個賬號最多保留3條新tweet、去除無效轉發同回覆,滿額125條只需約$0.625/日。
由踩坑到開源:我嘅信息源進化史
第一個階段:執著RSS,結果信息過載,幾千條更新變咗垃圾場,大量內容重複。
卡爾分享佢最初嘅做法:見到好博客、Newsletter就訂,想唔錯過任何資訊,但最後連點開都驚。
第二個階段:用AI做預處理(去重、過濾、總結),但發現失去咗原始來源,判斷唔到資訊嘅可信度。
佢做咗半年「科技搶鮮看」,發現要判斷值唔值得深挖,一定要知來源係官方定二手轉述,原始連結係資訊嘅身份證。
第三個階段:整咗AI News Radar,一個公開24小時更新嘅頁面,但發現固定站點滿足唔到每個人嘅個性化需求。
有人想睇模型更新、有人想要開發者工具,畀同一個頁面,佢哋一定會想加減嘢。
第四個階段:伯樂Skill—唔係更大嘅聚合站,而係幫你喺大量信息源入面揀適合自己嘅10個。
點樣用伯樂Skill?
- 1 如果只想睇結果:直接打開AI News Radar網頁(learnprompt.github.io/ai-news-radar),卡爾會持續迭代有用信息。
- 2 如果想自己改:fork GitHub倉庫(github.com/LearnPrompt/ai-news-radar),自行調整。
- 3 如果你已經有一堆RSS、Newsletter、GitHub項目:將「安裝伯樂Skill(github.com/LearnPrompt/ai-news-radar),再問我要信息源清單,目標係部署一個唔需要服務器、用GitHub Actions自動更新嘅AI日報網站」呢句話丟畀你嘅Agent。
建議:先唔好再訂閲一大堆新信息源,先讓伯樂幫你睇下現有嘅源值唔值得留。
今次我開源咗嘅伯樂Skill,
佢嘅作用唔係廣撒網,捉曬全網AI新聞,唔只係將我四五年累積落嚟嘅150+個資訊源打包做咗一個網頁,再推薦一個新嘅資訊流入口俾你。
每個人嘅資訊需求都唔同,閲讀習慣都唔一樣。
伯樂做嘅係更上游嘅嘢,
佢可以判斷一個資訊源,佢嘅內容值唔值得長期追更,會唔會同你現有資訊流有內容重複,如果值得,應該點樣接入最穩定?
我以前踩過嘅坑真係好多好多,同一個資訊源係行RSS、行公開API、行Skill、行飛書文檔、定係讀網頁自帶feed、用Jina兜底讀靜態頁面、定係重用登錄態、行付費API嘅話要點樣限制更新頻率、同埋Agent郵件訂閲日報等等等等。
千里馬(資訊源)成日都有,但伯樂就唔係成日有。
我都試過將所有源整成RSS格式,或者將所有源經Agent讀取、精簡、變成純文字,即係當時我認為嘅無噪音形式,後來發現呢個直頭係兜遠路。
唔同網頁能夠穩定獲取資訊嘅方式唔同,硬係用某個規則去轉換,逼曬佢哋行同一條路,本質上就係為難我哋自己理解,亦為難Agent執行嘅事。
🔗 伯樂Skill華麗登場:github.com/LearnPrompt/ai-news-radar
咁接下來我介紹一下伯樂嘅睇馬三絕招!
伯樂Skill可以做到啲乜?
佢係由我三個月前開源嘅ai-news-radar,一個24小時更新嘅AI熱點網站項目衍生出嚟,敢講24小時更新係因為上線之後就可以唔依靠大模型穩定獲取雙語版本同去重,用GitHub Action可以每30分鐘更新一次。

🔗 learnprompt.github.io/ai-news-radar/
第二版加咗更明確嘅閲讀分層,
想開箱即食嘅可以直接睇伯樂Skill生成嘅網頁,裏面除咗有資訊、資訊來源、雙語翻譯,仲加咗分類、時間軸、原始連結同信源健康狀態檢查。
但有啲源依然係好特殊嘅,
穩定嘅X需要我哋接入API Key,一啲日報冇公開歸檔,要用Agent郵箱訂閲,或者要重用我哋嘅登錄態先可以獲取。呢啲時候都可以經伯樂Skill配置。
今次支援嘅信源類型提升到九類,預設版本嘅資訊源都去到22個,

我將我日常訂閲大約150個資訊源嘅原生網站,喺唔依賴任何RSS或腳本解析嘅前提下,交俾伯樂去學習判斷,
等佢判斷能夠穩定獲取資訊源嘅方式係咩,
等佢根據呢個方式去做一個7日觀察期,觀察佢係咪可以長期獲得穩定嘅AI資訊,
等佢做URL、標題、正文嘅內容過濾,7日同現有資訊源差異大過65%先會保留,
舉幾個具體例子就好清楚,
例如最近我收藏咗AI HOT,

🔗 aihot.virxact.com
呢個站有一個好好嘅設計,佢唔只係俾咗一個可視化網頁,仲專登做咗Agent接入,裏面提供咗三條路:Skill、RSS同REST API。
所以Agent要讀取AI HOT,正確做法就唔係打開網頁,喺頁面上硬扒文本。
伯樂Skill唔需要我明確話俾佢知呢個網頁已經有呢三種方式,佢會先從首頁開始讀取呢個網站嘅所有路徑,揾到最佳接入點,

既然已經俾咗RSS同API,就優先行結構化,
精選內容行/feed.xml。
全部內容行/feed/all.xml。
日報行/feed/daily.xml。
開發者要更細嘅篩選,就行/api/public/items或者/api/public/daily,根據我哋平時資訊閲讀嘅習慣來調整資訊密度。
呢個就係伯樂睇咗咁多千里馬學識嘅第一招。
捉之前,先判斷呢個網站自己有冇更穩定更適合Agent嘅入口。
再好似Info Flow,

伯樂Skill會將佢歸類到聚合源呢一層。佢唔係官方一手源,但可以提供好好嘅廣度。
處理方式都唔應該將成個頁面當做一篇文章讀完,而係識別佢頁面裏面公開嘅feed列表,再逐個讀取子feed。
咁樣如果某個子feed壞咗,就跳過,唔會俾一個壞源拖垮成條線。

伯樂Skill輸出嘅呢個可視化網頁ai news radar會保留資訊源嘅時間軸、分區同條數。
呢個就係伯樂睇馬嘅第二招,
篩選資訊源嘅時候會保留第一手層,
例如OpenAI、Anthropic、Google DeepMind、Google AI Blog。
亦會保留可以提供穩定過濾路線嘅聚合層,
例如TechURLs、Buzzing、Info Flow。
呢兩層嘅角色係唔一樣嘅。
一手源負責資訊可信度。
聚合源負責資訊廣度。
再好似Follow Builders,
佢本身係一個Skill,會追蹤X上面嘅創業者、產品經理同工程師,亦會追蹤博客同播客,我哋可以令Agent安裝呢個Skill,嚟獲取文字版嘅更新。

🔗 github.com/zarazhangrui/follow-builders
伯樂Skill喺收錄嘅過程中就會判斷,
Follow Builders輸出嘅係一個JSON檔案。所以我哋喺可視化嘅時候,可以直接讀取GitHub將呢個JSON檔案可視化,唔需要額外模型額度嚟運行呢個skill。
然後就係,伯樂喺呢個基礎上優化咗我哋原有嘅X API策略。因為佢發現從呢個資訊源調用X API嘅時候有好多竅門,包括但不限於:
- 1.只睇過去24個鐘頭嘅內容,保留備份去重
- 2.每個帳號最多保留3條新Tweets
- 3.去掉無效嘅轉發同回覆
可以有效降低成本,滿額返還125條最多都係$0.625/日,5蚊都唔使。

呢個就係伯樂睇馬嘅第三招,
揀好馬嘅同時,將人哋嘅養馬技術都學到手。
點解要寫呢個Skill
因為我自己喺資訊源上踩過太多坑。
第一個階段,我特別執着RSS。
見到一個好博客,訂閲。
見到一個Newsletter唔錯,訂閲。
見到一個聚合站每日更新好多,都加咗入去先。
嗰時我嘅想法就係,只要將所有好嘢塞曬入RSS度,就唔會錯過任何重要資訊喇。
結果好快就被資訊淹沒咗。

真正嘅問題係,當你乜都塞曬入去之後,佢就唔再係資訊系統,佢變咗垃圾場。
每日幾千條、幾萬條更新躺喺度,未撳開已經開始資訊焦慮。
而且大量內容係重複嘅。
一個模型發佈,官方博客發一次,聚合站轉一次,Newsletter講一次,X上再嚟十幾個人點評一次,其實就係喺唔同地方反覆見到同一件事。
第二個階段,兩年前我開始用AI做預處理。
去重、過濾、總結,將連結放喺後面,只留低文字,等大家好似讀一份乾淨日報咁閲讀。
呢個思路都唔係錯嘅。
如果只係瀏覽,佢的確舒服。

老粉應該仲記得科技搶鮮看
但我做咗半年之後,發現佢有一個更致命嘅缺點。要判斷一個嘢值唔值得深挖,你就唔可以淨係睇被AI處理過嘅文字。
你一定要知道佢嚟自邊度。
呢條資訊係官方發佈,定係二手轉述?定係聚合站搬運?係開發者本人寫嘅博客,定係營銷號轉咗三四次嘅版本?
原始來源唔係可有可無嘅連結。
佢係一條資訊嘅身份證。
第三個階段,我開始做AI News Radar。
即係一個公開嘅24小時AI更新雷達。
普通用戶直接打開頁面,唔需要任何前置條件,就可以睇到最近24小時AI、模型、開發者工具同技術生態發生咗咩事。但係行咗兩個月之後,我又發現一個問題。
固定站點最多隻能成為起點,
唔能夠成為所有人嘅終點。
因為每個人嘅資訊需求都唔同。
有人淨係想睇模型更新,有人淨係想睇開發者工具,有人關心論文同產品發佈,有人自己有自己一套行咗好多年嘅RSS批量列表。
你俾所有人同一個頁面,
TA就一定想喺呢個基礎上加啲自己嘅嘢,
再刪走啲自己唔鍾意嘅嘢。
所以第四個階段就嚟喇。
伯樂Skill,
佢唔係再搞一個更大嘅聚合站,
真正嘅問題係,今日有某個佬開發曬自己嘅所有資訊源,聽日又有佬A、佬B、大佬C,你係要選擇全面接收佢哋發出嚟嘅500個源,定係喺呢500個源裏面揀出合適嘅方式,根據自己嘅閲讀習慣,保留適合自己嘅10個?
呢個先係伯樂Skill嘅價值。
點樣用?
如果你淨係想睇結果,可以直接打開24小時更新嘅AI News Radar,我會持續迭代我認為有用嘅資訊。
🔗 learnprompt.github.io/ai-news-radar/
如果你想自己改,歡迎fork倉庫。
🔗 github.com/LearnPrompt/ai-news-radar
如果你已經有一堆自己嘅RSS、Newsletter、GitHub項目、X帳號同飛書資料,
最簡單嘅方法係將下面呢句說話掉俾你嘅Agent。
安裝伯樂Skill(github.com/LearnPrompt/ai-news-radar),再問我要資訊源清單,目標係部署一個唔需要伺服器、可以用GitHub Actions自動更新嘅AI日報網站。
以前我覺得,
每日見到嘅資訊越多越安全。
真正有安全感嘅唔係資訊量,係判斷力。
AI令獲取資訊嘅成本越來越低。
選擇資訊源,保留原始來源,
判斷邊啲值得長期追,
呢啲嘢更加重要。
千里馬成日都有,新聞好多,更新好多,熱點好多。
真正缺嘅係一個可以幫你睇馬嘅人。
而家呢個伯樂,
我整咗出嚟俾大家先。
如果你都俾資訊源折磨過,
我嘅建議係唔好咁急再訂閲一大堆新嘅,
先俾伯樂睇睇。
@ 作者 / 卡爾
最後,多謝你睇到呢度👏如果鍾意呢篇文章,不妨順手俾我哋讚好|睇過|轉發|留言 📣
如果想第一時間收到推送,不妨俾我個星標🌟
如果你有更有趣嘅玩法,歡迎喺留言區傾下🤝
更多嘅內容正在不斷填坑中……

這次我開源的伯樂Skill,
它的作用不是廣撒網,抓全網AI新聞,不只是把我四五年累積下來的150+個信息源打包做了一個網頁,再給你推薦一個新的信息流入口。
每個人的信息需求不一樣,閲讀習慣也不一樣。
伯樂做的是更上游的事,
它能判斷一個信息源,它的內容值不值得長期追更,會不會跟你現有信息流有內容重複,如果值得,應該怎麼接進來最穩定?
我以前踩過的坑巨巨巨多,同個信息源是走RSS,走公開API,走Skill,走飛書文檔,還是讀網頁自帶的feed,用Jina兜底讀靜態頁面,還是複用登錄態,走付費API的話要如何限制更新頻率,以及Agent郵件訂閲日報等等等等。
千里馬(信息源)常有,而伯樂不常有。
我也嘗試過把所有的源都做成RSS格式,或者把所有的源通過Agent讀取,精簡,做成純文字,也就是當時我認為的無噪音形式,後面發現這直接就是一個捨近求遠。
不同的網頁能夠穩定獲取信息的方式不同,強行通過某個規則進行轉換,非要讓他們都走同一條路,本質上就是一個為難我們自己理解,也為難Agent執行的事。
🔗 伯樂Skill華麗登場:github.com/LearnPrompt/ai-news-radar
那接下來我來介紹一下伯樂的看馬三絕招!
伯樂Skill能做什麼?
它是從我三個月前開源的ai-news-radar,一個24小時更新的AI熱點網站的項目衍生出來的,敢說24小時更新是因為上線之後就可以不依賴大模型穩定獲取雙語版本和去重,用Gtihub Action可以每30分鐘更新一次。

🔗 learnprompt.github.io/ai-news-radar/
第二版追加了更明確的閲讀分層,
想要開箱即食的可以直接看伯樂Skill生成的網頁,裏面除了有信息,信息來源,雙語翻譯,還加了分類,時間軸,原始連結和信源健康狀態檢查。
但有些源還是非常特殊的,
穩定的X需要我們接入API Key,一些日報沒有公開歸檔,需要用Agent郵箱訂閲,或者要複用我們的登錄態才能夠獲取。這時候都可以通過伯樂Skill配置。
這次支持的信源類型提升到了九類,默認版本的信息源也到了22個,

我把我日常訂閲150個左右的信息源的原生網站,在不依賴任何RSS或腳本解析的前提下,交給伯樂去學習判斷,
讓它判斷能穩定獲取信息源的方式是什麼,
讓它根據這個方式去做一個7天觀察期,觀察它是否能夠長期獲得穩定的AI信息,
讓它做URL,標題,正文的內容過濾,7天跟現有信息源差異大於65%才會保留,
舉幾個具體例子就很清楚了,
比如最近我收藏了AI HOT,

🔗 aihot點virxact點com
這個站有一個非常好的設計,它不只是給了個可視化網頁,還專門做了Agent接入,裏面提供了三條路,Skill,RSS和REST API。
所以Agent要讀取AI HOT,正確的做法就不是打開網頁,在頁面上硬扒文本。
伯樂Skill不需要我明確告訴他這個網頁已經有這三種方式了,它會先從首頁開始讀取這個網站的所有路徑,找到最佳接入點,

既然已經給了RSS和API,那就優先走結構化,
精選內容走/feed.xml。
全部內容走/feed/all.xml。
日報走/feed/daily.xml。
開發者要更細的篩選,就走/api/public/items或者/api/public/daily,根據我們平時信息閲讀的習慣來調整信息密度。
這就是伯樂看了那麼多千里馬學會的第一招。
抓之前,先判斷這個網站自己有沒有更穩定更適合Agent的入口。
再比如Info Flow,

伯樂Skill會把它歸到聚合源這一層。它不是官方一手源,但可以提供很好的廣度。
處理方式也不應該把整個頁面當成一篇文章讀完,而是識別它頁面裏公開的feed列表,再逐個讀取子feed。
這樣如果某個子feed壞了,就跳過,不會讓一個壞源拖垮整條線。

伯樂Skill輸出的這個可視化網頁ai news rader會保留信息源的時間軸,分區和條數。
這就是伯樂看馬的第二招,
篩選信息源的時候會保留第一手層,
比如OpenAI,Anthropic,Google DeepMind,Google AI Blog。
也會保留能提供穩定的過濾路線的聚合層,
比如TechURLs,Buzzing,Info Flow。
這兩層的角色是不一樣的。
一手源負責信息可信度。
聚合源負責信息廣度。
再比如Follow Builders,
它本身是一個Skill,會追蹤X上的創業者,產品經理和工程師,也會追蹤博客和播客,我們可以讓Agent安裝這個 Skill,來獲取文字版的更新。

🔗 github點com/zarazhangrui/follow-builders
伯樂Skill在收錄的過程中就會判斷,
Follow Builders輸出的是一個JSON文件。所以我們在可視化的時候,可以直接讀取GitHub把這個JSON文件可視化,不需要額外模型額度來運行這個skill。
然後就是,伯樂在這個基礎上優化了我們原有的X API策略。因為它發現從這個信息源調用X API的時候是有很多訣竅的,包括但不限於:
- 1.只看過去24個小時的內容,保留備份去重
- 2.每個賬號最多保留3條新的Tweets
- 3.去掉無效的轉發的以及回覆
能有效降低成本,滿額返回125條頂上天了也就是是$0.625/天,5塊不到。

這就是伯樂看馬的第三招,
選好馬的同時,把別人的養馬技術也學到手。
為什麼要寫這個Skill
因為我自己在信息源上踩過太多坑。
第一個階段,我特別執着RSS。
看到一個好博客,訂閲。
看到一個Newsletter不錯,訂閲。
看到一個聚合站每天更新很多,也先加進去。
那時候我的想法就是,只要把所有好東西都塞進RSS裏,就不會錯過任何重要信息了。
結果很快就被信息淹沒了。

真正的問題是,當你把一切都塞進去以後,它就不再是信息系統,它變成了垃圾場。
每天幾千條,幾萬條更新躺在那裏,還沒點開就已經開始信息焦慮了。
而且大量內容是重複的。
一個模型發佈,官方博客發一遍,聚合站轉一遍,Newsletter講一遍,X上再來十幾個人點評一遍,其實就是在不同地方反覆看到同一件事。
第二個階段,兩年前我開始用AI做預處理。
去重,過濾,總結,把連結放到後面,只留下文字,讓大家像讀一份乾淨日報一樣閲讀。
這個思路也不是錯的。
如果只是瀏覽,它確實舒服。

老粉應該還記得科技搶鮮看
但我做了半年之後,發現它有一個更要命的缺點。要判斷一個東西值不值得深挖,那你不能只看被AI處理過的文字。
你必須知道它來自哪裏。
這條信息是官方發佈,還是二手轉述?還是聚合站搬運?是開發者本人寫的博客,還是營銷號轉了第三四遍的版本?
原始來源不是可有可無的連結。
它是一條信息的身份證。
第三個階段,我開始做AI News Radar。
也就是一個公開的24小時AI更新雷達。
普通用戶直接打開頁面,不需要任何前置條件,就能看到最近24小時AI,模型,開發者工具和技術生態裏發生了什麼。但跑了兩個月以後,我又發現一個問題。
固定站點最多隻能成為起點,
不能成為所有人的終點。
因為每個人的信息需求不一樣。
有人只想看模型更新,有人只想看開發者工具,有人關心論文和產品發佈,有人有自己一套運行了很多年的RSS批量列表。
你給所有人同一個頁面,
TA就一定會想在這個基礎上加一點自己的東西,
再刪掉一點自己不喜歡的東西。
所以第四個階段就來了。
伯樂Skill,
它不是再折騰出一個更大的聚合站,
真正的問題是今天有某個佬開發了自己的所有信息源,明天又有佬A,佬B,大佬 C,你是要選擇全盤接收他們發出來的500個源,還是在這500個源裏面挑出合適的方式,根據自己的閲讀習慣,保留適合自己的10個?
這才是伯樂Skill的價值。
怎麼用?
如果你只是想看結果,可以直接打開24小時更新的AI News Radar,我會持續迭代我覺得有用的信息。
🔗 learnprompt.github.io/ai-news-radar/
如果你想自己改,歡迎fork倉庫。
🔗 github.com/LearnPrompt/ai-news-radar
如果你已經有一堆自己的RSS,Newsletter,GitHub項目,X賬號和飛書資料,
最簡單的方法是把下面這句話丟給你的Agent。
安裝伯樂Skill(github.com/LearnPrompt/ai-news-radar),再問我要信息源清單,目標是部署一個不需要服務器,能用GitHub Actions自動更新的AI日報網站。
以前我覺得,
每天看到的信息越多越安全。
真正有安全感的不是信息量,是判斷力。
AI讓獲取信息的成本越來越低。
選擇信息源,保留原始來源,
判斷哪些值得長期追,
這些事情更重要。
千里馬常有,新聞很多,更新很多,熱點很多。
真正缺的是一個能幫你看馬的人。
現在這個伯樂,
我先給大家做出來了。
如果你也被信息源折磨過,
我的建議是先別急着再訂閲一大堆新的,
先讓伯樂看看。
@ 作者 / 卡爾
最後,感謝你看到這裏👏如果喜歡這篇文章,不妨順手給我們點贊|在看|轉發|評論 📣
如果想要第一時間收到推送,不妨給我個星標🌟
如果你有更有趣的玩法,歡迎在評論區聊聊🤝
更多的內容正在不斷填坑中……
