Gemma Gem|AI 模型進駐瀏覽器:告別雲端 API,本地運行實戰有幾勁|更新重點

近年 AI 助手百花齊放,但大部份都要靠雲端運算同 API Key 先用到。不過,最近一個叫「Gemma Gem」嘅開源項目就玩出新意,直接將 Google 嘅 Gemma 4 AI 模型塞入瀏覽器,全程喺你部機本地運行,唔使 API Key 又唔經雲端,徹底改變咗傳統 AI 助手嘅運作模式。呢個更新對注重私隱、唔想數據上雲,或者想慳返 API 費用嘅用家嚟講,絕對係一個大突破。

拆開睇,Gemma Gem 嘅最大賣點就係佢嘅「本地運行」能力。比起現時主流要將數據傳上雲端伺服器處理嘅 AI 服務,Gemma Gem 透過 WebGPU 技術,配合 Hugging Face Transformers 框架,將整個 Gemma 4 模型直接部署喺瀏覽器嘅 Offscreen Document 裡面。換言之,你嘅個人 AI 助手唔再需要同外部伺服器連線,所有對話同網頁互動都喺你部機上面完成,大大提升咗數據私隱同安全性。

唔止係單純嘅聊天機械人,Gemma Gem 嘅實用性仲體現喺佢同網頁嘅互動能力。同好多只識答問題嘅 AI 唔同,Gemma Gem 識得利用 Content Script,注入一個聊天介面,然後執行一系列 DOM 工具。講白啲,佢可以幫你閱讀網頁內容、點擊按鈕、填寫表格、捲動頁面,甚至執行 JavaScript 指令。想像一下,一個 AI 助手唔止識答你關於呢個頁面嘅問題,仲可以幫你自動化一啲簡單嘅網頁操作,例如幫你搶飛或者填寫複雜表格,比起之前純粹靠手動操作或第三方插件,體驗上自然更流暢。

目前 Gemma Gem 提供咗兩個模型版本選擇:Gemma 4 E2B(約 500MB)同 E4B(約 1.5GB),呢啲模型檔案會喺第一次運行後快取到你嘅硬碟。雖然 E2B 模型已經可以處理簡單嘅頁面問題,亦「通常」會明白你要求佢做咩,但開發者都坦白講明,呢個 2B 模型比較適合處理簡單嘅問題。對於更複雜嘅指令或者需要深度理解嘅任務,表現可能就未及得上大型雲端模型咁精準同全面,呢點用家要留意。始終,將一個 AI 模型直接塞入瀏覽器,喺資源運用上始終有佢嘅限制。

總括嚟講,Gemma Gem 嘅出現,唔止係技術上嘅一次有趣嘗試,更重要嘅係佢為 AI 助手嘅未來發展提供咗一個全新嘅思路。喺雲端 AI 服務越嚟越普及嘅今日,Gemma Gem 證明咗本地運行 AI 嘅可行性同優勢,尤其喺私隱保護同降低使用門檻方面,有住不可忽視嘅戰略意義。雖然目前仲有進步空間,但佢已經為用家同開發者展示咗一個毋須依賴雲端、更自主、更安全嘅 AI 互動模式,未來類似嘅本地 AI 應用相信會越來越多,值得大家持續關注。

資料來源

人工智能 相關配圖:Gemma Gem|AI 模型進駐瀏覽器:告別雲端 API,本地運行實戰有幾勁|更新重點