【hermes保姆教程】B站視頻逐字稿自動進obsidian知識庫

作者:嬌姐話AI圈
日期:2026年5月9日 上午5:57
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

HermesObsidian 將 B 站視頻自動變逐字稿,從此睇片變睇書

整理版摘要

呢篇係嬌姐寫嘅保姆級教程,佢係一個前榮耀員工、而家專注 AI 效率工具嘅研究者。佢發現成日睇完 B 站教學片覺得有用,但收藏咗之後就唔會再開,想覆盤內容又嫌重睇太麻煩。所以佢設計咗一套全自動方案:只要俾個 B 站連結,5 分鐘後 Obsidian 知識庫就會多咗篇完整逐字稿,連 23 集嘅 Claude Code 教程都可以一晚全部搞掂。整體結論係:將被動吸收嘅影片轉成主動複習嘅文字,搜尋快、易翻睇,徹底解決「睇完就忘」嘅問題。

成個流程行得通嘅關鍵係兩個工具Hermes 做總指揮,負責下載音頻、叫 AI 轉寫、寫入筆記;Obsidian 做本地儲存,俾你永久檢索。技術門檻唔高,只要跟住步驟裝好 yt-dlp、faster-whisper,再改好 Hermes 配置文件,就可以逐條 link 或者批量處理。佢仲提供咗完整嘅 Python 腳本,連 Frontmatter 格式都寫好,基本上係 copy-paste 就用到。

嬌姐特別強調呢套方案唔係玩技術,而係改變學習習慣。把「睇片」變成「睇書」,文字可以隨時搜、隨時翻,比任何平台嘅收藏夾都可靠。最後佢順便推廣咗自己嘅付費社羣同資料包,但核心流程係免費可自學嘅。

  • 核心方法:用 yt-dlp 抽音頻 → faster-whisper 轉寫文字 → 自動存入 Obsidian,全程唔使手動睇片。
  • 差異優勢:轉寫完帶時間戳,逐字稿可以全文搜尋,秒揾返之前講過嘅內容,比平台收藏夾好用好多。
  • 實測數據:10 分鐘片大約轉寫 3-5 分鐘(CPU small 模型),23 集片一晚搞掂。
  • 啟發:呢套方案嘅精髓係將被動吸收變主動複習,文字格式令你用關鍵詞搜返任何細節。
  • 可行動點:新手只要裝好 Obsidian、yt-dlp 同 faster-whisper,改好 Hermes 配置,再跟住單集實戰行一次就得。
值得記低
工具 obsidian.md

Obsidian

本地筆記軟件,免費開源,用嚟儲存同檢索逐字稿。

工具 claude.ai

Hermes

AI 助手,負責協調成個流程,需配合 Claude Code 使用。

工具 github.com

yt-dlp

影片音頻提取工具,用嚟下載 B 站音頻。

工具 github.com

faster-whisper

AI 轉寫工具,將語音轉成文字。

整理重點

問題同方案:點解要將片變字?

你係咪成日喺 B 站睇完教學片覺得好有用,但係收咗入收藏夾之後就冇再開過?截圖截到成個相簿都係,想揾返之前講過嘅某個位就好似大海撈針。嬌姐都有呢個煩惱,佢話「視頻係被動吸收,你當時覺得明咗,關咗就忘一半」。

佢設計咗一個全自動流程:只要俾個 B 站連結,5 分鐘後 Obsidian 就會多咗篇完整逐字稿

  • ① 俾 B 站 BV 號連結
  • ② 自動下載音頻(yt-dlp)
  • ③ AI 轉寫文字(faster-whisper)
  • ④ 存入 Obsidian 知識庫,帶時間戳
  • ⑤ 隨時喺 Obsidian 搜尋同翻睇
整理重點

準備功夫:裝好兩大核心工具同依賴

硬件方面,任何電腦只要 8G RAM 以上就得,無論 WindowsMacLinux。軟件需要四個:Obsidian(知識庫載體)、Hermes(AI 助手大腦)、yt-dlp(音頻提取)同 faster-whisper(語音轉寫)。

  1. 1 裝 Obsidian:去 obsidian.md 下載,開一個新 folder 叫 zhishiku,然後喺 Obsidian 入面「打開本地倉庫」揀嗰個 folder。
  2. 2 裝 yt-dlp:開命令行打 `pip install yt-dlp`,然後 `yt-dlp --version` 確認有版本號。
  3. 3 裝 faster-whisper:打 `pip install faster-whisper`,等 2-3 分鐘,然後用 `python -c "from faster_whisper import WhisperModel; print('ok')"` 確認。
  4. 4 配置 Hermes:去 C:\Users\用戶名\.hermes\config.yaml,改 `wiki.path` 做你 zhishiku 嘅路徑,例如 `D:/zhishiku`。
整理重點

單集實戰:一條 link 嘅完整示範

BV1JJ411z7LB 為例,嬌姐逐個步驟拆解。第一步係用 yt-dlp 淨係下載音頻,唔好畫面,慳位又快。

音頻提取指令 shell
yt-dlp -f "30280" --max-filesize 100M -o "video_audio.%(ext)s" "https://www.bilibili.com/video/BV1JJ411z7LB"

成功後會見到一個 .m4a 檔案。第二步係用 Python 腳本做 AI 轉寫,嬌姐提供咗一段現成嘅 `transcribe.py`,用 small 模型,CPU 運行,10 分鐘片大約要跑 3-5 分鐘。

轉寫腳本 transcribe.py python
from faster_whisper import WhisperModel
import sys
audio_path = sys.argv[1]
output_path = sys.argv[2]
model = WhisperModel('small', device='cpu')
segments, info = model.transcribe(audio_path, language='zh', beam_size=5)
with open(output_path, 'w', encoding='utf-8') as f:
 for seg in segments:
 f.write(f'[{seg.start:.1f}s-{seg.end:.1f}s] {seg.text}\n')
print('轉寫完成')

第三步係將 output.txt 拉入 Obsidian 嘅 zhishiku folder,改埋 Frontmatter 做 `title`、`date`、`tags`、`source`,咁就永久可用。

Frontmatter 格式:```--- title: "Claude Code教程-第1集" date: 2026-05-09 tags: [B站教程, Claude-Code] source: "https://bilibili.com/video/BV1JJ411z7LB" ---```

整理重點

進階玩法:批量處理同全自動化

如果你要轉成個系列,例如 23 集 Claude Code 教程,一集集做就太慢。嬌姐寫咗個 `batch_main.py` 批量腳本,會自動行曬三件事:逐集下載音頻、逐集轉寫、寫入 Obsidian,然後清理臨時檔。

批量腳本框架 python
import subprocess, os
for ep in range(1,24):
 subprocess.run(['yt-dlp', '-f', '30280', '--max-filesize', '100M', '-o', f'p{ep}.m4a', f'https://www.bilibili.com/video/BV1JJ411z7LB?p={ep}'])
 subprocess.run(['python3', 'transcribe.py', f'p{ep}.m4a', f'p{ep}.txt'])
 os.remove(f'p{ep}.m4a')

行完之後,23 集逐字稿就全部入咗 Obsidian。如果想再懶啲,可以將呢個流程綁落 Hermes Skills,以後只要對 Hermes 講「幫我將呢個 B 站片整成逐字稿」,佢就會自動做曬。

整理重點

常見問題同注意事項

嬌姐整理咗幾個實戰常見嘅問題。第一,下載失敗可以檢查連結係咪有分集參數(例如 `?p=2`),B 站版權影片可能唔支援音頻提取,要換片。第二,轉寫速度-如果有 NVIDIA 顯卡可以開 GPU 加速,冇嘅話用 small 模型性價比最高。

第三,準確率方面,small 模型中文約 95%,少啲錯字屬正常,要 100% 準確就要人工校對或者用更大模型。第四,知識庫路徑問題:確保 Obsidian 開嘅係你自己整嘅 zhishiku folder,唔係預設嗰個。

呢套方案嘅精髓唔係技術,而係改變學習習慣:將被動睇片變成主動翻書。



圖片

先關注後閲讀,嬌姐怕失去上進嘅你

文末嬌姐整理咗openclaw所有文章連結

想了解嬌姐撳文末連結


先講呢樣嘢可以做到啲乜

你睇到一個B站教學視頻,睇完覺得有用,但係收藏咗之後從來冇再開過,cap咗一大推圖之後自己都揾唔返,想覆盤內容又懶得再睇一次。

我而家用緊呢套方案,將呢個問題徹底搞掂咗


核心體驗:你只需要send一個B站連結,知識庫5分鐘之後就會有呢條片嘅完整逐字稿。

23集Claude Code教學,一晚全部轉曬存入Obsidian。想複習嘅時候,好似揭書咁揭出嚟睇就得。

圖片
圖片
圖片

整體架構

唔識技術都可以跳過,但係知道大概框架之後操作會更順。成個流程係咁:

① B站視頻連結

你只需要複製一個BV號連結,之後全部自動化。

② 下載音頻

跳過視頻,只攞聲音。檔案細,速度快。

③ AI轉寫

語音變文字,中文準確率大約95%。

④ 存入Obsidian知識庫

有時timestamp嘅逐字稿,自動寫入筆記軟件,永久可以搜返。

⑤ 隨時複習

打開筆記軟件,好似睇書咁揭,關鍵詞一秒就定位。

核心工具得兩個:Hermes(AI助手,負責協調成個流程)同 Obsidian(本地筆記軟件,負責儲存同搜返嘢)。


第一步:你需要準備啲乜

硬件要求:一部電腦(Windows / Mac / Linux 都得),RAM 8GB或以上。軟件清單如下:

Obsidian

用途知識庫載體,本地儲存筆記

下載obsidian.md

Claude Code

用途AI助手 Hermes嘅大腦,協調成個流程

下載claude.ai/code

yt-dlp

用途視頻音頻提取工具,淨係抓聲音唔抓畫面

安裝pip install yt-dlp

faster-whisper

用途AI轉寫工具,語音變文字

安裝pip install faster-whisper


第二步:安裝必要嘅工具

安裝 Obsidian

  1. 打開 obsidian.md,㩒「Download」,下載之後雙擊安裝
  2. 喺電腦任意位置開一個新資料夾,改名做 zhishiku
  3. 打開 Obsidian → 左下角「打開本地倉庫」→ 揀啱啱嗰個資料夾

安裝 yt-dlp(音頻提取工具)

Windows 按 Win+R 輸入 cmd 打開命令提示字元;Mac 打開終端機。輸入以下指令:

pip install yt-dlp

驗證安裝係咪成功:

yt-dlp --version

見到版本號(例如 2025.05.09)就代表裝好咗。

安裝 faster-whisper(AI轉寫工具)

pip install faster-whisper

安裝包比較大,等 2–3 分鐘係正常。驗證:

python -c "from faster_whisper import

  WhisperModel; print('ok')"

看到 ok 就代表裝好咗。


第三步:配置你嘅 Hermes 助手

揾到設定檔(Windows 路徑係 C:\Users\用戶名\.hermes\config.yaml),修改知識庫路徑:

YAML

skills:

  config:

    wiki:

      path: "D:/zhishiku"

# 改做你啱啱創建嘅資料夾路徑

注意:飛書同步設定係可選項,冇飛書帳號可以 skip 呢步。


第四步:第一次實戰

以 BV 號 BV1JJ411z7LB 做例子,完整行一次流程。

4.1 提取音頻

打開命令提示字元,入到工作目錄之後執行:

Shell

yt-dlp -f "30280" \

  --max-filesize 100M \

  -o "video_audio.%(ext)s" \

  "https://www.bilibili.com/

   video/BV1JJ411z7LB"

 

# -f 30280:淨係下載音頻

# --max-filesize:超過100M就唔下載

行完之後會見到一個 .m4a 尾嘅音頻檔案,即係成功咗。

4.2 AI 轉寫

新建 transcribe.py,寫入以下內容:

Python

# 引入依賴

import sys

from faster_whisper import WhisperModel

 

audio_path = sys.argv[1]

output_path = sys.argv[2]

 

# small模型,中文效果好

model = WhisperModel(

  'small', device='cpu')

 

segments, info = model.transcribe(

  audio_path,

  language='zh',

  beam_size=5)

 

with open(output_path, 'w',

  encoding='utf-8') as f:

  for seg in segments:

    f.write(

      f'[{seg.start:.1f}s-

      {seg.end:.1f}s]

      {seg.text}\n')

print("轉寫完成")

運行轉寫:

python3 transcribe.py \

  video_audio.m4a \

  video_output.txt

注意:10分鐘嘅視頻大概要行 3–5 分鐘,呢步係成個流程最慢嘅,耐心等命令提示字元行完。

4.3 存入 Obsidian 知識庫

將生成嘅 video_output.txt 拉入 Obsidian 對應嘅資料夾,改返個名做:

2026-05-09_教學名-第X集-逐字稿.md

喺檔案頂部加上 Frontmatter 元資訊:

Markdown

---

title: "Claude Code教程-第1集"

date: 2026-05-09

tags: [B站教程, Claude-Code]

source: "https://bilibili.com/

  video/BV1JJ411z7LB"

---

完成!你已經成功將一個B站視頻存咗入知識庫。


第五步:批量處理多個視頻(進階)

要轉 23 集,唔使一集集手動做。開新 batch_main.py,批量腳本會自動做曬三件事:

  • 逐集叫 yt-dlp 下載音頻
  • 叫 transcribe.py 進行轉寫
  • 寫入 Obsidian 知識庫,清理臨時檔案

Python

# 要處理嘅集數列表

episodes = list(range(1, 24))

BV號 = "BV1JJ411z7LB"

for ep in episodes:

  # 下載 → 轉寫 → 存庫

  subprocess.run([...])

  os.remove(f"p{ep}.m4a")

行完之後就可以去做其他嘢。23集大概跑一個夜晚,取決於視頻嘅總時長。


第六步:叫 AI 助手全自動化

配置好 skills 之後,你只需要對 Hermes 講一句:

提示:幫我將呢個B站視頻整成逐字稿:[連結]

Hermes 就會自動執行下載→轉寫→存知識庫嘅全流程,唔使手動幹預。


常見問題

Q 下載失敗咗點算?

檢查連結係咪帶分集參數(例如 ?p=2),有嘅話要帶埋先得。B站版權視頻唔支援音頻提取,要換第二條片。

Q 轉寫好慢,可唔可以快啲?

有 NVIDIA 顯示卡可以開 GPU 加速;CPU 用戶建議用 small 模型,性價比最高;medium 模型更加準確但係更慢。

Q 逐字稿有雜音/錯字點算?

small 模型中文準確率大約 95%,會有少量漏字錯字係正常。需要 100% 準確只能人手校對,或者轉用更高精度嘅模型配合核對。

Q 知識庫資料夾揾唔到?

確認 Obsidian「打開本地倉庫」指向嘅係你自己創建嘅 zhishiku 資料夾,唔係 Obsidian 默認嗰個。


最後

呢套方案嘅精髓唔係技術,而係將「睇片」變成「睇書」

視頻係被動吸收,你嗰陣覺得明咗,熄咗片之後就唔記得一半。文字係主動複習,你想幾時睇就幾時睇,想搜咩關鍵詞一秒就定位。

23集Claude Code教學轉完存入知識庫之後,我而家揾任何內容都係秒級定位,比起喺任何平台搜收藏夾都可靠。

希望呢篇教學對你有用,有問題歡迎交流。

圖片

保姆教學已經更新到付費社羣資料包嘅文檔入面,拎咗之後即刻可以實現b站視頻自由喇。

https://fcnfwx5opw7x.feishu.cn/wiki/Ps6uwuphgidpiKkMCgrcL4WtnYb

關於微信信息嘅助手(支援羣組同私聊)

微信嘅聊天記錄其實係存在你電腦本地,有辦法將佢讀出嚟,透過 API 接口餵畀 AI。

非常之多應用場景,將微信嘅聊天記錄當做你嘅數據資產

有需要可以睇以下文章,或者私信我搭建方案

圖片


五一唔好再刷羣組消息喇

【支援一對一諮詢】我用hermes搭咗一個助手,每個人都應該用得著

關於openclaw、hermes資料包同系列文章

配套資料包

私信 kekohu 拎取,內容唔定期持續更新。

選項
內容
價格
資料包
《入門到精通》+《102個實戰案例》+《避坑手冊》+《數百skill技能包》+《AI日報》,付款之後即刻發飛書權限
69元
付費社羣
包含以上全套資料包 + 羣組內實操問答 + 唔定期乾貨分享 + 同行交流
99 蚊

注意:付費社羣包含資料包全部內容,唔使重複購買。

hermes系列文章

持續更新,建議每篇認真閲讀

【唔推薦用官方命令】Windows 環境下安裝Hermes同遷移Openclaw嘅實操分享


告別生圖 API,我用 Hermes Skill 免費出圖無限次

清華大學 MAIC 團隊,GitHub 上已經 16.5k Star嘅一個開源項目

分享我自己喺用緊嘅Hermes Obsidian skill

【保姆教學】我用 Obsidian +hermes搭咗一個會自己整理嘅知識庫

參考劉小排嘅 BuilderPulse :我用 Hermes 發現值得睇嘅github項目

Hermes 入門到實操中文文檔

【Hermes整理】OpenClaw 變現項目地圖:6 大賽道

Hermes 裝好之後,我最建議先做嘅 8 個實操動作

我將 OpenClaw 嘅 Agent 無縫遷移咗去 Hermes——就靠呢一份 Skill

參考 Hermes 優化 OpenClaw:等你嘅 AI 學識記、會覆盤、會巡檢

openclaw系列文章

持續更新,建議每篇認真閲讀

配置與理解

徹底搞掂 OpenClaw 配置體系:呢個先係 AI Agent 嘅正確打開方式
【支援一對一諮詢】我用hermes搭咗一個助手,每個人都應該用得著
【唔推薦用官方命令】Windows 環境下安裝Hermes同遷移Openclaw嘅實操分享
我嘅個人成長助手Agent罷工咗,Claude max定位總結嘅呢幾點分享畀大家
【今日唔講STBI測試】我用OpenClaw搭咗一個自動抓多個公眾號、AI整理、發飛書嘅Agent,核心就呢四步
OpenClaw openclaw.json 全量小白教學:一篇講清每個配置項嘅作用
你喺飛書或者微信發咗句「你好」,OpenClaw 到底用咗幾多 Token?
詳細指南 微信插件支援OpenClaw
OpenClaw龍蝦點樣自我糾錯 5步自我迭代法
【網友都話好靚】我讓openclaw開發咗一個自己嘅互動式說明書

唔好俾人呃,OpenClaw 可以 24 小時做嘢——但你要先做啱呢 6 件事

紅咗三個月嘅「龍蝦」,普通人裝咗真係有用咩?

用 OpenClaw 將 AI 失憶醫好:開關、精簡、外掛三步走

OpenClaw 命令完整手冊
OpenClaw 到底點樣行?部署方式與玩法全景
點樣申請 Brave Search API 金鑰並配置 OpenClaw
用大白話講清楚OpenClaw嘅記憶技術
OpenClaw 長任務必讀:用 Sub-Agent 隔離上下文,token 消耗降低 85%
OpenClaw 省 Token 實操手冊:八個維度,節省 60–90%
OpenClaw 曲線救國:透過 CLI 後端使用 Claude 模型
飛書同openclaw集成實操教學
【呢篇文係openclaw輸出】OpenClaw超簡單而且免費嘅安裝實操教學

多 Agent 與協作

OpenClaw 多 Agent 協作實戰完全教學
OpenClaw 多代理配置指南:等 AI 團隊幫你同時做多件事

技能與工具

OpenClaw 官方 53 個技能完整指南:功能詳解 + 風險評估 + 安裝建議
【GitHub Skill 】 OpenClaw多Agent交付畀客戶嘅流程Skill
呢個 Skill 太適合「小白偷懶式」情報蒐集喇:唔使 API Key,直接將 Reddit 變成你嘅選題庫
【免費領取】7套唔同賽道風格公眾號排版Skill(有效果圖)
12類人必裝嘅OpenClaw Skills
唔寫程式,點樣令 OpenClaw Agent 學識新技能

實戰與案例

本地部署 OpenClaw 自動發佈公眾號:小白完整教學
本地部署 OpenClaw 自動發佈小紅書:小白完整教學
我用 OpenClaw,將小朋友學習情況整理成可以長期追蹤嘅學情檔案
【實操分享】OpenClaw多文檔多輸入源筆記整理Agent搭建
【保姆教學】OpenClaw作業錯題分析師,每個家長都可以學起嚟
OpenClaw 完全指南:由零搭建你嘅 AI 員工團隊
睇嚇呢個龍蝦速度,就知呢個OpenClaw有幾紅,速度要跟上
OpenClaw 完全指南:由零搭建你嘅 AI 員工團隊
OpenClaw 實戰:由0到1搭建你嘅雲端AI工作流程
我嘅OpenClaw 多Agent 會主動發嚟「返工打卡」
OpenClaw 實戰操作指南:12大熱門應用案例詳細教學
我嘅openclaw龍蝦開始自己賺錢喇
用咗openclaw,同telegram可以雙向通訊喇

排錯與安全

OpenClaw 排錯指南
OpenClaw 龍蝦玩家嘅安全指南

關於嬌姐

40+ IT 從業者,前榮耀員工,而家專注 AI 效率工具研究與實踐。持續輸出 OpenClaw 同 AI 工具嘅乾貨教學同落地案例,間中分享職場思考同生活感悟。

高考嘅堅持同感恩:我心中嗰座橋,跨越咗命運
40 + IT女從榮耀離職:揾工碰壁、陪娃焦慮嘅日子裏,我靠 AI 公眾號揾返自我

提示:覺得有用,點讚、關注、轉發,係我持續創作嘅動力。




圖片

先關注後閲讀,嬌姐怕失去上進的你

文末嬌姐整理openclaw所有文章連結

想了解嬌姐點擊文末連結


先說這東西能幹啥

你刷到一個B站教程視頻,看完之後覺得有用,但收藏了從來沒再打開過,截圖截了一大堆後來自己都找不到,想覆盤內容又懶得再看一遍。

我現在用的這套方案,把這個問題徹底幹掉了


核心體驗:你只需要發一個B站連結,知識庫5分鐘後就有這篇視頻的完整逐字稿。

23集Claude Code教程,一晚上全部轉完存進了Obsidian。想複習的時候,像翻書一樣翻出來看就行。

圖片
圖片
圖片

整體架構

不懂技術也能跳過,但知道大概框架後面操作會更順。整個流程如下:

① B站視頻連結

你只需要複製一個BV號連結,後續全自動。

② 下載音頻

跳過視頻,只拿聲音。文件小,速度快。

③ AI轉寫

語音變文字,中文準確率約95%。

④ 存入Obsidian知識庫

帶時間戳的逐字稿,自動寫入筆記軟件,永久檢索。

⑤ 隨時複習

打開筆記軟件,像看書一樣翻閲,關鍵詞一秒定位。

核心工具只有兩個:Hermes(AI助手,負責協調整個流程)和 Obsidian(本地筆記軟件,負責存儲和檢索)。


第一步:你需要準備什麼

硬件要求:一台電腦(Windows / Mac / Linux 均可),內存 8G 以上。軟件清單如下:

Obsidian

用途知識庫載體,本地存儲筆記

下載obsidian.md

Claude Code

用途AI助手 Hermes 的大腦,協調整個流程

下載claude.ai/code

yt-dlp

用途視頻音頻提取工具,只抓聲音不抓畫面

安裝pip install yt-dlp

faster-whisper

用途AI轉寫工具,語音變文字

安裝pip install faster-whisper


第二步:安裝必要的工具

安裝 Obsidian

  1. 打開 obsidian.md,點擊「Download」,下載後雙擊安裝
  2. 在電腦任意位置新建文件夾,命名為 zhishiku
  3. 打開 Obsidian → 左下角「打開本地倉庫」→ 選擇剛才那個文件夾

安裝 yt-dlp(音頻提取工具)

Windows 按 Win+R 輸入 cmd 打開命令行;Mac 打開終端。輸入以下命令:

pip install yt-dlp

驗證安裝是否成功:

yt-dlp --version

看到版本號(比如 2025.05.09)就說明裝好了。

安裝 faster-whisper(AI轉寫工具)

pip install faster-whisper

安裝包較大,等待 2–3 分鐘正常。驗證:

python -c "from faster_whisper import

  WhisperModel; print('ok')"

看到 ok 就說明裝好了。


第三步:配置你的 Hermes 助手

找到配置文件(Windows 路徑為 C:\Users\用戶名\.hermes\config.yaml),修改知識庫路徑:

YAML

skills:

  config:

    wiki:

      path: "D:/zhishiku"

# 改成你剛才創建的文件夾路徑

注意:飛書同步配置為可選項,沒有飛書賬號可跳過這步。


第四步:第一次實戰

以 BV 號 BV1JJ411z7LB 為例,完整走一遍流程。

4.1 提取音頻

打開命令行,進入工作目錄後執行:

Shell

yt-dlp -f "30280" \

  --max-filesize 100M \

  -o "video_audio.%(ext)s" \

  "https://www.bilibili.com/

   video/BV1JJ411z7LB"

 

# -f 30280:只下載音頻

# --max-filesize:超100M不下

跑完後會看到一個 .m4a 後綴的音頻文件,說明成功了。

4.2 AI 轉寫

新建 transcribe.py,寫入以下內容:

Python

# 引入依賴

import sys

from faster_whisper import WhisperModel

 

audio_path = sys.argv[1]

output_path = sys.argv[2]

 

# small模型,中文效果好

model = WhisperModel(

  'small', device='cpu')

 

segments, info = model.transcribe(

  audio_path,

  language='zh',

  beam_size=5)

 

with open(output_path, 'w',

  encoding='utf-8') as f:

  for seg in segments:

    f.write(

      f'[{seg.start:.1f}s-

      {seg.end:.1f}s]

      {seg.text}\n')

print("轉寫完成")

運行轉寫:

python3 transcribe.py \

  video_audio.m4a \

  video_output.txt

注意:10分鐘的視頻大概要跑 3–5 分鐘,這步是整個流程裏最慢的,耐心等待命令行跑完。

4.3 存入 Obsidian 知識庫

把生成的 video_output.txt 拖入 Obsidian 對應文件夾,重命名為:

2026-05-09_教程名-第X集-逐字稿.md

在文件頂部加上 Frontmatter 元信息:

Markdown

---

title: "Claude Code教程-第1集"

date: 2026-05-09

tags: [B站教程, Claude-Code]

source: "https://bilibili.com/

  video/BV1JJ411z7LB"

---

完成!你已經成功把一個B站視頻存進了知識庫。


第五步:批量處理多個視頻(進階)

要轉 23 集,不用一集集手動來。新建 batch_main.py,批量腳本會自動完成三件事:

  • 逐集調用 yt-dlp 下載音頻
  • 調用 transcribe.py 進行轉寫
  • 寫入 Obsidian 知識庫,清理臨時文件

Python

# 要處理的集數列表

episodes = list(range(1, 24))

BV號 = "BV1JJ411z7LB"

for ep in episodes:

  # 下載 → 轉寫 → 存庫

  subprocess.run([...])

  os.remove(f"p{ep}.m4a")

運行後就可以去幹別的事了。23集大概跑一個晚上,取決於視頻總時長。


第六步:讓 AI 助手全自動化

配置好 skills 後,你只需要對 Hermes 說一句話:

提示:幫我把這個B站視頻做成逐字稿:[連結]

Hermes 就會自動執行下載→轉寫→存知識庫的全流程,無需手動干預。


常見問題

Q 下載失敗了怎麼辦?

檢查連結是否帶分集參數(如 ?p=2),有的話需要帶上。B站版權視頻不支持音頻提取,只能換視頻。

Q 轉寫很慢,能不能更快?

有 NVIDIA 顯卡可啓用 GPU 加速;CPU 用戶建議用 small 模型,性價比最高;medium 模型更準確但更慢。

Q 逐字稿有噪音/錯誤怎麼辦?

small 模型中文準確率約 95%,會有少量漏字錯字屬正常。需要 100% 準確只能人工校對,或換更高精度模型配合核驗。

Q 知識庫文件夾找不到?

確認 Obsidian「打開本地倉庫」指向的是你自己創建的 zhishiku 文件夾,而非 Obsidian 默認的文件夾。


最後

這套方案的精髓不是技術,而是把「看視頻」變成「看書」

視頻是被動吸收,你當時覺得懂了,關掉視頻忘掉一半。文字是主動複習,你想什麼時候看就什麼時候看,想搜什麼關鍵詞一秒定位。

23集Claude Code教程轉完存進知識庫之後,我現在找任何內容都是秒級定位,比在任何平台搜索收藏夾都靠譜。

希望這篇教程對你有用,有問題歡迎交流。

圖片

保姆教程已經更新到付費社羣資料包的的文檔中,獲取後立馬可以實現b站視頻自由了。

https://fcnfwx5opw7x.feishu.cn/wiki/Ps6uwuphgidpiKkMCgrcL4WtnYb

關於微信信息的助手(支持羣聊和私聊)

微信的聊天記錄其實存在你電腦本地,有辦法把它讀出來,通過 API 接口餵給 AI。

非常多的應用場景,把微信裏的聊天記錄作為你的數據資產

有需要的可以閲讀如下文章,或私信我搭建方案

圖片


五一不要刷羣聊消息了

【支持一對一諮詢】我用hermes搭建了一個助手,每個人應該用得上

關於openclaw、hermes資料包和系列文章

配套資料包

私信 kekohu 獲取,內容不定期持續更新。

選項
內容
價格
資料包
《入門到精通》+《102個實戰案例》+《避坑手冊》+《數百skill技能包》+《AI日報》,付款後即發飛書權限
69元
付費社羣
含上述全套資料包 + 羣內實操答疑 + 不定期乾貨分享 + 同行交流
99 元

注意:付費社羣包含資料包全部內容,無需重複購買。

hermes系列文章

持續更新,建議每篇認真閲讀

【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享


告別生圖 API,我用 Hermes Skill 免費出圖無限次

清華大學 MAIC 團隊,GitHub 上已經 16.5k Star的一個開源項目

分享我自己在用的Hermes 的Obsidian skill

【保姆教程】我用 Obsidian +hermes搭了一個會自己整理的知識庫

借鑑劉小排的 BuilderPulse :我用 Hermes 發現值得看的github項目

Hermes 入門到實操中文文檔

【Hermes整理】OpenClaw 變現項目地圖:6 大賽道

Hermes 裝好之後,我最建議先做的 8 個實操動作

我把 OpenClaw 的 Agent 無縫遷移到了 Hermes——就靠這一份 Skill

借鑑 Hermes 優化 OpenClaw:讓你的 AI 學會記、會覆盤、會巡檢

openclaw系列文章

持續更新,建議每篇認真閲讀

配置與理解

徹底搞懂 OpenClaw 配置體系:這才是 AI Agent 的正確打開方式
【支持一對一諮詢】我用hermes搭建了一個助手,每個人應該用得上
【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享
我的個人成長助手Agent罷工了,Claude max定位總結的這幾點分享給大家
【今天不聊STBI測試】我用OpenClaw搭了一個自動抓多公眾號、AI整理、發飛書的Agent,核心就這四步
OpenClaw openclaw.json 全量小白教程:一篇講清每個配置項的作用
你在飛書或者微信發了句"你好",OpenClaw 到底花了多少 Token?
詳細指南  微信插件支持OpenClaw
OpenClaw龍蝦如何自我糾錯   5步自我迭代法
【網友都說賊好看】我讓openclaw開發了一個自己的交互式說明書

別被騙,OpenClaw 可以 24 小時幹活——但你得先做對這 6 件事

火了三個月的"龍蝦",普通人裝了真的有用嗎?

用 OpenClaw 把 AI 失憶治好:開關、精簡、外掛三步走

OpenClaw 命令完整手冊
OpenClaw 到底怎麼跑?部署方式與玩法全景
如何申請 Brave Search API 密鑰並配置 OpenClaw
大白話講清楚OpenClaw的記憶術
OpenClaw 長任務必讀:用 Sub-Agent 隔離上下文,token 消耗降 85%
OpenClaw 省 Token 實操手冊:八個維度,節省 60–90%
OpenClaw 曲線救國:通過 CLI 後端使用 Claude 模型
飛書跟openclaw集成實操教程
【該文為openclaw輸出】OpenClaw超簡單且免費的安裝實操教程

多 Agent 與協作

OpenClaw 多 Agent 協作實戰完全教程
OpenClaw 多代理配置指南:讓 AI 團隊幫你同時幹多件事

技能與工具

OpenClaw 官方 53 個技能完整指南:功能詳解 + 風險評估 + 安裝建議
【GitHub Skill 】 OpenClaw多Agent交付給客戶的流程Skill
這個 Skill 太適合“小白摸魚式”情報蒐集了:不用 API Key,直接把 Reddit 變成你的選題庫
【免費領取】7套不同賽道風格公眾號排版Skill(有效果圖)
12類人羣必裝的OpenClaw Skills
不寫代碼,如何讓 OpenClaw Agent 學會新技能

實戰與案例

本地部署 OpenClaw 自動發佈公眾號:小白完整教程
本地部署 OpenClaw 自動發佈小紅書:小白完整教程
我用 OpenClaw,把孩子學習情況整理成能長期追蹤的學情檔案
【實操分享】OpenClaw多文檔多輸入源筆記整理Agent搭建
【保姆教程】OpenClaw作業錯題分析師,每個家長都可以學起來
OpenClaw 完全指南:從零搭建你的 AI 員工團隊
看看這個龍蝦速度,就知道這OpenClaw有多火,速度跟上
OpenClaw 完全指南:從零搭建你的 AI 員工團隊
OpenClaw 實戰:從0到1搭建你的雲端AI工作流
我的OpenClaw 多Agent 會主動發來 “上班打卡”
OpenClaw 實戰操作指南:12大熱門應用案例詳細教程
我的openclaw龍蝦開始自己賺錢了
用上了openclaw,跟telegram能雙向通信了

排錯與安全

OpenClaw 排錯指南
OpenClaw 龍蝦玩家的安全指南

關於嬌姐

40+ IT 從業者,前榮耀員工,現專注 AI 效率工具研究與實踐。持續輸出 OpenClaw 及 AI 工具的乾貨教程與落地案例,偶爾分享職場思考與生活感悟。

高考的堅持與感恩:我心中的那座橋,跨越了命運
40 + IT女從榮耀離職:找工作碰壁、陪娃焦慮的日子裏,我靠 AI 公眾號找到了自我

提示:覺得有用,點贊、關注、轉發,是我持續創作的動力。