三分鐘搞定:iPhone 上直接跑 Gemma 4 大模型,端側 AI 徹底變天了

作者:Just Jason
日期:2026年4月4日 上午11:49
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

Google AI Edge Gallery 讓 iPhone 三分鐘離線跑 Gemma 4,端側 AI 正式進入人人可用時代。

整理版摘要

呢篇文章出自一位 AI 工具開發者嘅角度,佢親身測試咗 Google 最新推出嘅 AI Edge Gallery App,體驗 Gemma 4 模型喺 iPhone 上離線運作。作者想解決嘅問題係:一般人點樣可以低門檻、免費、私隱安全咁試用大模型,而唔需要煩惱 API key、雲端費用或者網絡依賴。整體結論係:Gemma 4 配上 AI Edge Gallery,令端側 AI 從概念變成現實,而且安裝只需三分鐘,完全離線支援中文同工具調用。

文章先對比傳統雲端 API 方式同呢個新方式嘅門檻差異,突出後者嘅易用性同成本優勢。然後重點介紹 Agent Skills 功能,話呢個先係真正嘅殺手鐧——模型唔止識傾偈,仲可以調用工具做實際行動,例如查天氣、搜維基。最後實測中文能力,結論係日常對話完全可用,仲有 Thinking Mode 展示推理過程。

作者認為 Google 呢步係搶佔端側 AI 入口,令開發者未來可以考慮唔再接 API,直接用手機模型做應用。文章分析咗呢件事對行業嘅影響:AI 基礎設施由雲端轉向裝置端,用戶數據主權返返自己手。

  • App Store 搜「Google AI Edge Gallery」即可下載,三分鐘內離線跑 Gemma 4,無需科學上網或 API Key
  • Agent Skills 令模型具備工具調用能力,可查維基百科、生成地圖、顯示信息卡,唔再淨係傾偈。
  • Gemma-4-E2B-it 中文能力完全可用,日常對話、知識問答、摘要推理流暢;複雜數學同長篇代碼表現一般。
  • Thinking Mode 顯示逐步推理過程,係理解 AI 邏輯嘅視窗;Ask Image 可識別圖片內容。
  • 端側 AI 格局改寫:開發者未來可零成本用手機模型做應用,唔洗靠 API,用戶數據唔出設備。
整理重點

三分鐘搞掂:iPhone 離線跑 Gemma 4

Google AI Edge GalleryApp Store 搜到嘅免費 App,安裝之後點「Agent Skills」下載 Gemma-4-E2B-it 模型(約 2.54GB),等兩三分鐘就用到。唔使註冊、登錄、API Key 或信用卡,模型行喺手機 chip 上,完全離線工作,數據唔使出設備。

呢個係我見過門檻最低嘅大模型體驗方式,沒有之一。

  1. 1 App Store 搜「Google AI Edge Gallery」下載安裝,30 秒。
  2. 2 打開 App,點「Agent Skills」,5 秒。
  3. 3 Gemma-4-E2B-it,下載 2.54GB,2-3 分鐘搞定。

對比傳統雲端 API 方式:以前要註冊賬號、申請 API Key、綁信用卡、仲要連線,依家門檻得一個——你部 iPhone 仲有冇 3GB 位。

整理重點

Agent Skills 先係真正殺手鐧

大多數人以為大模型淨係用嚟傾偈,但 Google AI Edge Gallery 嘅核心係 Agent Skills——模型可以主動調用工具幫你做事,唔係淨係生成文字。

佢令手機上嘅模型第一次具備「行動能力」。

  • AI Chat:多輪對話,支援 Thinking Mode 展示推理過程。
  • Agent Skills:工具調用,例如查維基百科、生成地圖、展示信息卡片。
  • Ask Image:影相或揀相,模型直接睇圖回答問題。
  • Audio Scribe:語音實時轉文字,支援翻譯。
  • Prompt Lab:調 temperature、top-k 參數,測試特定場景。

舉例:你問「上海聽日天氣點樣」,傳統模型可能亂作答案,但 Agent SkillsGemma 4 會調用真實天氣工具再整理畀你。社羣仲喺 GitHub Discussions 分享自定義 Skill,可以透過 URL 加載第三方 Skill。

整理重點

中文實測:日常對話完全可用

好多人對端側模型嘅印象停留喺「英文得,中文唔掂」。實測 Gemma-4-E2B-it,中文能力完全可用。日常對話、知識問答、文本摘要、簡單推理表現都超出預期。

E2B 係等效 2B 參數輕量模型,複雜數學同長篇代碼唔係強項。

  • 日常中文對話:流暢自然。
  • 知識問答:基本準確。
  • 文本摘要:抓重點能力強。
  • 簡單推理:邏輯清晰。
  • 複雜數學:偶有錯誤。
  • 長篇代碼:不如大參數模型。
  • 圖片理解:識別準確,中文描述。

另一個驚喜係 Thinking Mode,打開後模型會展示逐步推理過程,你可以睇到佢點樣「諗嘢」。Ask Image 功能:對住菜單影相,模型直接講每道菜係咩、大概幾錢,全部離線完成。

整理重點

端側 AI 格局正在重寫

谷歌嘅意圖好清楚:將 AI 入口由雲端拉返去裝置端。蘋果嘅 Apple Intelligence 仲喺度磨蹭,谷歌已經將 Gemma 4 送入 iPhone。呢個唔係技術 PR——係喺蘋果地盤搶佔端側 AI 入口。

恕唔支援 table type,用 bullet 代替

  • 雲端時代:模型入口係瀏覽器/API,算力喺數據中心,成本按量計費,數據主權由平台控制,可用性依賴網絡。
  • 端側時代:模型入口係手機 App,算力喺手機芯片,成本一次下載無限使用,數據主權歸用戶自持,可用性隨時隨地。

更深層嘅影響:當每部手機都行到大模型,AI 基礎設施就由「雲」變「端」。API 調用模式唔會消失,但唔再係唯一選擇。用戶有咗第二條路——免費、離線、數據唔出設備。

整理重點

AI 從雲端遷移到口袋

Gemma 4 開源發佈到三分鐘喺 iPhone 跑起,谷歌用 48 小時完成咗從「模型發佈」到「人人可用」嘅閉環。下載一個 App,三分鐘,你就擁有一個永遠在線、永遠免費嘅 AI 助手。

端側 AI 唔再係實驗室嘅玩具,而係每個人手中嘅工具。

呢篇文章仲提到作者自家產品 Zaokit AI,不過呢度唔展開。

昨日先寫完 Gemma 4 開源發佈,今日就有人問我:呢樣嘢喺 iPhone 上跑唔跑到?

得。仲簡單到離曬譜添。

App Store 搜「Google AI Edge Gallery」→ 下載 → 打開 → 㩒 Agent Skills → 下載模型 → 搞掂。 三分鐘,唔使科學上網,唔使 API Key,唔使配任何環境。

端側大模型唔再係 PPT 上面嘅概念。Gemma 4 喺 iPhone 上跑,完全離線,支援中文,有工具調用——呢件事今日每個人都做到。徹底變曬天。

圖片

先講結論——呢個係我見過門檻最低嘅大模型體驗方式,冇之一。

步驟
操作
耗時
1
App Store 搜「Google AI Edge Gallery」,下載安裝
30 秒
2
打開 App,㩒「Agent Skills」
5 秒
3
揀 Gemma-4-E2B-it,㩒下載(約 2.54GB)
2-3 分鐘
圖片

下載完就用得。冇註冊、冇登錄、冇 Token 額度限制。 模型跑喺你手機嘅晶片上面,數據唔出設備,完全離線工作。

對比一下傳統方式:

維度
雲端 API 方式
iPhone 端側方式
前置條件
註冊賬號 + API Key + 信用卡
App Store 下載
網絡要求
必須連線
下載後完全離線
使用成本
按 Token 計費
免費,無限使用
私隱保護
數據上雲
數據唔出手機
上手時間
30 分鐘起
3 分鐘

以前想體驗大模型,門檻係技術;而家門檻淨係得一個——你部 iPhone 嘅儲存空間夠唔夠放 3GB 模型。

圖片

二、唔止係傾偈——Agent Skills 先係真正嘅殺手鐧

大多數人用大模型就係「傾偈」。但 Google AI Edge Gallery 嘅核心功能唔係 AI Chat——係 Agent Skills。

即係咩意思?模型唔止回答你嘅問題,佢仲可以主動調用工具幫你做事。

功能
說明
AI Chat
多輪對話,支援「Thinking Mode」展示推理過程
Agent Skills
工具調用,可以查維基百科、生成地圖、展示資訊卡
Ask Image
影相或揀相,模型直接睇圖回答問題
Audio Scribe
語音實時轉文字,支援翻譯
Prompt Lab
調參數(temperature、top-k),測試特定場景

重點講 Agent Skills。佢令手機上面嘅模型第一次具備「行動能力」——唔止係生成文字,而係可以好似一個助手噉操作工具、查資訊、組合行動。

舉個例:你問佢「上海聽日天氣點樣」,傳統傾偈模型淨係識得作個答案。但係帶 Agent Skills 嘅 Gemma 4,可以調用工具去查真實數據,再將結果整理畀你。

社區仲喺 GitHub Discussions 上分享自訂 Skill,你甚至可以經 URL 加載第三方 Skill。呢個唔係一個傾偈 App——呢個係一個可擴展嘅端側 AI Agent 平台。

當模型跑喺手機上,仲可以調工具、查資訊、做決策——「AI Agent」就唔再係需要伺服器支撐嘅概念。佢已經裝咗入你個袋。

圖片

三、中文實測:到底用唔用得?

好多人對端側模型嘅印象仲停留喺「英文仲可以,中文好差」。

實測結論:Gemma-4-E2B-it 嘅中文能力完全用得。 日常對話、知識問答、文本摘要、簡單推理——表現超出預期。

當然,E2B 始終係等效 2B 參數嘅輕量模型,複雜數學推理同長篇程式碼生成唔係佢嘅強項。 但作為一個跑喺手機上嘅離線助手,佢嘅性價比無敵:

能力
表現
日常中文對話
✅ 流暢自然
知識問答
✅ 基本準確
文本摘要
✅ 抓重點能力強
簡單推理
✅ 邏輯清晰
複雜數學
⚠️ 間中有錯
長篇程式碼
⚠️ 不如大參數模型
圖片理解
✅ 識別準確,中文描述

另一個令我驚喜嘅功能係 Thinking Mode。 開咗之後,模型會展示逐步推理過程——你可以見到佢點樣「諗嘢」。呢個唔止係一個 debug 工具,更加係理解 AI 推理邏輯嘅窗口。

仲有 Ask Image 功能:對住一張餐牌影相,模型直接話畀你知每道菜係咩、大概幾多錢。喺手機上,離線狀態下。

端側模型嘅中文能力已經跨過咗「用得」嘅門檻。對於唔想按 Token 俾錢、唔想數據上雲嘅用戶嚟講,呢個就係最好嘅選擇。

圖片

四、呢個代表咩?端側 AI 格局正在改寫

Google 做呢件事嘅意圖好清楚——將 AI 嘅入口由雲端拉返去設備端。

維度
雲端時代
端側時代
模型入口
瀏覽器 / API
手機 App
運算位置
數據中心
手機晶片
使用成本
按量付費
一次下載,無限使用
數據主權
平台控制
用戶自持
可用性
依賴網絡
隨時隨地

蘋果嘅 Apple Intelligence 仲喺度拖拖拉拉,Google 已經將 Gemma 4 送入咗 iPhone。呢個唔係技術 PR——呢個係喺蘋果嘅地盤上搶佔端側 AI 嘅入口。

更深層嘅影響在於:當每部手機都跑到大模型時,AI 嘅基礎設施就由「雲」變咗做「端」。 API 調用模式唔會消失,但佢唔再係唯一選擇。用戶有咗第二條路——免費、離線、數據唔出設備。

對開發者嚟講,呢個代表一件事:你嘅下一個 AI 應用,唔一定要接 API。 Gemma 4 + AI Edge Gallery 嘅組合,已經可以支撐相當多嘅應用場景,而且零成本。

端側 AI 唔係雲端 AI 嘅降級替代品——佢係另一條路。當 Google 將 Gemma 4 塞入 iPhone 時,呢條路已經鋪好咗。Apple 應該緊張啦。


寫在最後

由尋日 Gemma 4 開源發佈,到今日三分鐘喺 iPhone 上跑起——Google 用 48 小時完成咗由「模型發佈」到「人人可用」嘅閉環。

我一個人打造嘅 Zaokit AI[1] 正在內測,前 1000 名用戶贈送價值 150 RMB 嘅 Pro 計劃,助力大家高效完成圖文創作同 PPT 生成,唯一網站:zaokit.app[1]

AI 正由雲端搬到口袋裏。Gemma 4 跑喺 iPhone 上呢件事,標誌住一個時代嘅分水嶺——端側 AI 唔再係實驗室嘅玩具,而係每個人手中嘅工具。下載一個 App,三分鐘,你就擁有咗一個永遠在線、永遠免費嘅 AI 助手。


相關閲讀

AI 模型與端側部署系列

引用連結

[1] Zaokit AI: https://zaokit.app

昨天剛寫完 Gemma 4 開源發佈,今天就有人問我:這東西能在 iPhone 上跑嗎?

能。而且簡單到離譜。

App Store 搜索「Google AI Edge Gallery」→ 下載 → 打開 → 點 Agent Skills → 下載模型 → 完事。 三分鐘,不需要科學上網,不需要 API Key,不需要配任何環境。

端側大模型不再是 PPT 上的概念。Gemma 4 跑在 iPhone 上,完全離線,支持中文,帶工具調用——這件事今天每個人都能做到。徹底變天了。

圖片

先說結論——這是我見過門檻最低的大模型體驗方式,沒有之一。

步驟
操作
耗時
1
App Store 搜索「Google AI Edge Gallery」,下載安裝
30 秒
2
打開 App,點擊「Agent Skills」
5 秒
3
選擇 Gemma-4-E2B-it,點擊下載(約 2.54GB)
2-3 分鐘
圖片

下載完就能用。沒有註冊、沒有登錄、沒有 Token 額度限制。 模型跑在你手機的芯片上,數據不出設備,完全離線工作。

對比一下傳統方式:

維度
雲端 API 方式
iPhone 端側方式
前置條件
註冊賬號 + API Key + 信用卡
App Store 下載
網絡要求
必須聯網
下載後完全離線
使用成本
按 Token 計費
免費,無限使用
隱私保護
數據上雲
數據不出手機
上手時間
30 分鐘起
3 分鐘

以前想體驗大模型,門檻是技術;現在門檻只剩一個——你的 iPhone 儲存空間夠不夠放 3GB 模型。

圖片

二、不只是聊天——Agent Skills 才是真正的殺器

大多數人用大模型就是「聊天」。但 Google AI Edge Gallery 的核心功能不是 AI Chat——是 Agent Skills。

什麼意思?模型不只是回答你的問題,它還能主動調用工具幫你做事。

功能
說明
AI Chat
多輪對話,支持「Thinking Mode」展示推理過程
Agent Skills
工具調用,可查維基百科、生成地圖、展示信息卡片
Ask Image
拍照或選圖,模型直接看圖回答問題
Audio Scribe
語音實時轉文字,支持翻譯
Prompt Lab
調參數(temperature、top-k),測試特定場景

重點說 Agent Skills。它讓手機上的模型第一次具備了「行動能力」——不只是生成文本,而是能像一個助手一樣操作工具、查詢信息、組合行動。

舉個例子:你問它「上海明天天氣怎麼樣」,傳統聊天模型只能瞎編一個答案。但帶 Agent Skills 的 Gemma 4,可以調用工具去查真實數據,再把結果整理給你。

社區還在 GitHub Discussions 上分享自定義 Skill,你甚至可以通過 URL 加載第三方 Skill。這不是一個聊天 App——這是一個可擴展的端側 AI Agent 平台。

當模型跑在手機上,還能調工具、查信息、做決策——「AI Agent」就不再是需要服務器支撐的概念了。它已經裝進了你的口袋。

圖片

三、中文實測:到底能不能用?

很多人對端側模型的印象還停留在「英文還行,中文拉胯」。

實測結論:Gemma-4-E2B-it 的中文能力完全可用。 日常對話、知識問答、文本摘要、簡單推理——表現超出預期。

當然,E2B 畢竟是等效 2B 參數的輕量模型,複雜數學推理和長篇代碼生成不是它的強項。 但作為一個跑在手機上的離線助手,它的性價比無敵:

能力
表現
日常中文對話
✅ 流暢自然
知識問答
✅ 基本準確
文本摘要
✅ 抓重點能力強
簡單推理
✅ 邏輯清晰
複雜數學
⚠️ 偶有錯誤
長篇代碼
⚠️ 不如大參數模型
圖片理解
✅ 識別準確,中文描述

另一個讓我驚喜的功能是 Thinking Mode。 打開後,模型會展示逐步推理過程——你能看到它是怎麼「想」的。這不只是一個 debug 工具,更是理解 AI 推理邏輯的窗口。

還有 Ask Image 功能:對着一張菜單拍照,模型直接告訴你每道菜是什麼、大概多少錢。在手機上,離線狀態下。

端側模型的中文能力已經跨過了「能用」的門檻。對於不想按 Token 付費、不想數據上雲的用戶來說,這就是最好的選擇。

圖片

四、這意味着什麼?端側 AI 格局正在重寫

谷歌做這件事的意圖很清楚——把 AI 的入口從雲端拉回設備端。

維度
雲端時代
端側時代
模型入口
瀏覽器 / API
手機 App
算力位置
數據中心
手機芯片
使用成本
按量付費
一次下載,無限使用
數據主權
平台控制
用戶自持
可用性
依賴網絡
隨時隨地

蘋果的 Apple Intelligence 還在磨磨蹭蹭,谷歌已經把 Gemma 4 送進了 iPhone。這不是技術PR——這是在蘋果的地盤上搶佔端側 AI 的入口。

更深層的影響在於:當每台手機都能跑大模型時,AI 的基礎設施就從「雲」變成了「端」。 API 調用模式不會消失,但它不再是唯一選擇。用戶有了第二條路——免費、離線、數據不出設備。

對開發者來說,這意味着一件事:你的下一個 AI 應用,不一定要接 API。 Gemma 4 + AI Edge Gallery 的組合,已經可以支撐相當多的應用場景,而且零成本。

端側 AI 不是雲端 AI 的降級替代品——它是另一條路。當谷歌把 Gemma 4 塞進 iPhone 時,這條路已經鋪好了。蘋果該緊張了。


寫在最後

從昨天 Gemma 4 開源發佈,到今天三分鐘在 iPhone 上跑起來——谷歌用 48 小時完成了從「模型發佈」到「人人可用」的閉環。

我一個人打造的 Zaokit AI[1] 正在內測,前 1000 名用戶贈送價值 150 RMB 的 Pro 計劃,助力大家高效完成圖文創作和 PPT 生成,唯一網站:zaokit.app[1]

AI 正在從雲端遷移到口袋裏。Gemma 4 跑在 iPhone 上這件事,標誌着一個時代的分水嶺——端側 AI 不再是實驗室的玩具,而是每個人手中的工具。下載一個 App,三分鐘,你就擁有了一個永遠在線、永遠免費的 AI 助手。


相關閲讀

AI 模型與端側部署系列

引用連結

[1] Zaokit AI: https://zaokit.app