今次 Chrome 同 Gemini Nano 爭議,最容易令人望住「4GB」三個字。但私隱問題唔只係硬碟少咗幾 GB。更核心係:瀏覽器如果加入一層可以處理內容嘅 AI,應該幾時通知用戶、用嚟做乜、邊個可以調用、會唔會傳資料,以及用戶同 IT 管理員可唔可以真正關掉。
先分清:官方確認咗乜,報道又講咗乜
官方可確認嘅部分: Google 將 Chrome 描述為 Built-in AI 平台,網站同網頁應用程式可以透過瀏覽器管理嘅 AI 模型同 API 執行 AI 任務;Chrome 文件亦明確提到 Gemini Nano [17][
18]。Chrome Built-in AI 文件仲提到,模型可以快取喺裝置上,令應用程式啟動得更快 [
18]。Google 開發者網誌亦指,LiteRT-LM 令 Chrome 等產品可以使用裝置端 Gemini Nano [
20]。
仍屬報道層面、未見官方文件清楚確認嘅部分: 多篇文章聲稱,Chrome 曾經喺用戶 profile 入面嘅 OptGuideOnDeviceModel 資料夾放入約 4GB、名為 weights.bin 嘅模型檔案,過程無清楚提示;有報道仲指手動刪除後會再次下載 [2][
3][
7][
10][
14]。不過,Chrome 官方開發者文件雖然確認 Built-in AI 同裝置端快取,喺相關文件入面並無清楚確認呢個具體檔案大小、檔名,或者刪除後自動恢復嘅說法 [
17][
18]。
所以,暫時唔應該一口咬定係已證實嘅私隱醜聞;但亦唔應該輕描淡寫話「只係一次更新」。真正要追問嘅,是用戶同管理員對瀏覽器本地 AI 有幾多控制權。
點解「透明度」比「4GB」更重要
一個大型本地 AI 模型,本身唔必然係私隱問題。相反,如果內容真係留喺裝置上處理,唔需要送上雲端,裝置端 AI 可以減少某些雲端資料流;Google 亦形容 Gemini Nano 可在無網絡連線、毋須把資料傳到雲端嘅情況下支援生成式 AI 體驗 [19]。
問題在於:用戶有冇被清楚告知有呢個新元件?它幾時會啟動?會處理咩內容?網站或者 Chrome 功能可唔可以調用?又可唔可以一鍵停用?
呢點對瀏覽器尤其重要,因為 Chrome Built-in AI 唔只係內部優化。Google 文件描述嘅係一套 API,讓網頁應用程式使用瀏覽器管理嘅模型執行 AI 任務 [17][
18]。Google I/O 技術內容提到嘅用途包括翻譯、總結、撰寫同改寫內容 [
28]。當呢類能力變成瀏覽器底層功能,用戶需要嘅唔係一行「佔用儲存空間」提示,而係清楚、可理解、可選擇嘅控制。
用途要講清楚:寫作助手、翻譯,定安全防護?
私隱風險好大程度取決於用途。同一個本地模型,可以用嚟做寫作建議、翻譯、摘要;亦可以用於安全功能。Google 文件同 Google I/O 內容提到 Built-in AI 可支援翻譯、總結、撰寫同改寫等任務 [17][
18][
28]。另外,Infosecurity Magazine 報道指,Google 曾在 Chrome 137 的 Safe Browsing「Enhanced Protection」模式中實驗使用 Gemini Nano,作為針對垃圾訊息、詐騙同釣魚攻擊嘅額外防護層 [
25]。
呢啲用途可以有實際價值,但亦令設定需要更細緻。用戶應該可以分開選擇:是否使用本地 AI 做便利功能、是否用於安全防護、是否容許開發者 API 調用,或者完全不用。否則,一次普通瀏覽器更新就會令人覺得變成「靜靜雞加功能」。
裝置端唔等於零風險
「On-device」最大賣點係資料可以留喺本機,但本地處理唔等於所有問題自動消失。至少以下問題要交代清楚:
- 邊類內容會被交畀本地模型處理;
- 邊啲 Chrome 功能或網頁應用程式可以調用模型;
- prompts、輸出、錯誤訊息、使用量數據或遙測會否儲存或傳送;
- 模型更新點樣派發;
- 用戶刪除或停用模型後,會唔會再次自動下載。
Chrome 文件確認網頁應用程式可以透過 Built-in AI API 使用瀏覽器管理嘅模型 [17][
18]。正因如此,私隱焦點唔只係模型檔案本身,仲包括圍住模型嘅權限、API 同存取控制。
瀏覽器見到嘅內容,往往好敏感
瀏覽器日常會接觸好多敏感資料:表格內容、內部文件、電郵、即時訊息、客服個案、客戶資料等等。如果 AI 功能負責翻譯、摘要、撰寫或改寫文字,就有機會接觸呢類內容 [28]。如果處理真係全程留喺本地,當然比自動送上雲端更私隱友善 [
19];但用戶仍然需要知道 AI 幾時開緊、處理緊邊啲內容,以及有冇額外資料流。
理想做法係:當某個 Chrome 功能或網站使用本地模型時,瀏覽器應該有清晰提示;同時要講明該次處理係純本地,定係會同 Google 或其他服務有資料傳輸。現時 Chrome AI 官方頁面說明咗 Built-in AI API 嘅存在,但未完全解答每一項具體控制、遙測同提示問題 [17][
18]。
Opt-out 同刪除,先係真正考驗
最尖銳嘅指控唔只係「下載咗 4GB」,而係下載之後有冇控制。多篇報道聲稱,相關檔案手動刪除後會重新下載,而且一般 Chrome 設定入面無簡單 opt-out [3][
7][
10][
14]。如果屬實,呢點會係嚴重嘅用戶自主問題:刪除唔代表真正移除,不使用亦唔代表清楚拒絕。
對一般用戶而言,問題係儲存空間、頻寬同信任。對公司而言,仲涉及軟件清單、內部審批、瀏覽器政策,以及受監管環境入面可唔可以接受未經批准嘅 AI 元件。有報道因此把事件放入供應商風險同合規角度討論 [1][
12]。
GDPR、ePrivacy:有風險線索,但未可當成已違規
現有資料未足以判定 Google 或 Chrome 已經違法,因為仍欠缺完整細節:實際派發方式、提示內容、預設設定、啟動邏輯、資料流同遙測安排都未完全清楚。不過,有私隱相關報道認為,事件可能觸及 GDPR 即歐盟《一般資料保護規例》入面嘅透明度、資料保護 by design 原則,以及 ePrivacy 對終端設備儲存或存取資料嘅要求 [12][
13]。
要分清楚:模型檔案唔係因為大就自動有問題。真正敏感嘅位係,如果 Chrome 在無清楚資訊下安裝一個可處理用戶內容嘅元件,或者相關遙測、啟動數據、使用數據無被充分解釋,先會變成私隱同合規焦點。
一個私隱友善嘅瀏覽器 AI,應該做到乜
如果瀏覽器要內置本地 AI,最低限度應該有幾件事:
- 安裝大型 AI 元件前,有清楚易明嘅更新提示;
- 設定頁面入面有明顯選項,可啟用、停用同移除模型;
- 清楚說明已刪除模型會否、何時會再次下載;
- 將便利功能、安全功能同開發者 API 分開開關;
- 文件講清楚哪些處理留喺本地、哪些情況可能呼叫雲端、會收集咩遙測;
- 為企業同公共機構提供管理員政策;
- 當網站或 Chrome 功能調用本地模型時,有可見提示。
呢啲唔只係法律文件上嘅細節。它們決定咗裝置端 AI 會被理解成私隱改進,定係一層用戶睇唔清、熄唔乾淨嘅新瀏覽器能力。
結論
Chrome Built-in AI 配合 Gemini Nano,係官方文件已經寫明嘅方向 [17][
18]。至於「靜默下載約 4GB
weights.bin,刪除後又重新下載」呢個具體指控,已有多篇報道提及,但相關 Chrome 官方文件未清楚確認檔案大小、檔名或刪除後恢復機制 [2][
3][
7][
10][
14][
17][
18]。
最冷靜嘅判斷係:本地 AI 本身唔係原罪;如果內容真係留喺裝置上,裝置端 AI 甚至可以有私隱好處 [19]。但 Chrome 必須清楚交代裝咗咩、用嚟做咩、邊啲資料會被處理、有冇傳送,以及用戶同管理員點樣有效關閉。4GB 只是引爆點,真正問題係透明度同控制權。




