Perdebatan tentang Chrome dan Gemini Nano mudah terseret ke angka yang mencolok: sekitar 4 GB. Namun dari sudut privasi, ukuran file bukan inti persoalannya. Yang lebih penting adalah apakah sebuah browser menambahkan lapisan AI baru dengan pemberitahuan yang jelas, tujuan penggunaan yang terbatas, dokumentasi yang mudah dipahami, dan tombol yang benar-benar efektif untuk menonaktifkannya.
Apa yang sudah jelas, dan apa yang masih berupa laporan
Yang terdokumentasi resmi: Google menggambarkan Chrome sebagai platform untuk Built-in AI, yaitu kemampuan agar situs web dan aplikasi web menjalankan tugas AI melalui model dan API yang dikelola browser; dokumentasi Chrome menyebut Gemini Nano secara eksplisit dalam konteks ini [17][
18]. Dokumentasi Built-in AI juga menyebut bahwa model dapat di-cache di perangkat agar aplikasi lebih cepat berjalan [
18]. Selain itu, blog pengembang Google menyebut Chrome sebagai salah satu produk tempat LiteRT-LM memungkinkan penggunaan Gemini Nano secara on-device [
20].
Yang banyak dilaporkan, tetapi belum dikonfirmasi secara rinci di dokumen resmi yang relevan: sejumlah publikasi menyatakan Chrome menaruh file model sekitar 4 GB bernama weights.bin di folder profil OptGuideOnDeviceModel, tanpa pemberitahuan yang jelas, dan mengunduhnya lagi setelah file dihapus secara manual [2][
3][
7][
10][
14]. Halaman resmi pengembang Chrome memang mendukung keberadaan Built-in AI dan caching model di perangkat, tetapi dalam dokumen yang relevan tidak menyebut ukuran file tersebut, nama
weights.bin, atau klaim bahwa file akan dipulihkan setelah dihapus [17][
18].
Artinya, kasus ini sebaiknya tidak buru-buru disebut sebagai skandal privasi yang sudah terbukti penuh, tetapi juga tidak bisa dianggap sekadar pembaruan biasa. Pertanyaan utamanya adalah: seberapa besar kendali pengguna dan administrator atas AI lokal yang tertanam di browser?
Mengapa transparansi lebih penting daripada ukuran file
Model AI lokal yang besar tidak otomatis menjadi masalah privasi. Yang bermasalah adalah ketika komponen baru dipasang tanpa penjelasan yang mudah dipahami: apa fungsinya, kapan aktif, data apa yang diproses, dan bagaimana cara mematikannya.
Dalam konteks AI di browser, transparansi menjadi sangat penting. Chrome Built-in AI bukan hanya optimisasi internal. Google menjelaskan adanya API yang memungkinkan aplikasi web menjalankan tugas AI dengan model yang dikelola browser [17][
18]. Materi Google I/O menyebut contoh penggunaan seperti menerjemahkan, merangkum, menulis, dan menulis ulang konten [
28]. Jika kemampuan seperti ini dipindahkan ke lapisan browser, pengguna membutuhkan lebih dari sekadar informasi soal ruang penyimpanan. Mereka membutuhkan pilihan yang jelas dan dapat dipahami.
Tujuan penggunaan: Gemini Nano dipakai untuk apa?
Risiko privasi sangat bergantung pada tujuan penggunaan. Model lokal bisa dipakai untuk bantuan menulis, terjemahan, ringkasan, atau fitur keamanan. Dokumentasi Google dan materi Google I/O menggambarkan tugas Built-in AI seperti menerjemahkan, merangkum, menulis, dan menulis ulang [17][
18][
28]. Di sisi lain, Infosecurity Magazine melaporkan bahwa Google bereksperimen dengan Gemini Nano di Chrome 137 sebagai lapisan perlindungan tambahan terhadap spam, scam, dan phishing dalam mode Enhanced Protection di Safe Browsing [
25].
Fungsi seperti itu bisa berguna. Namun justru karena kegunaannya beragam, pengaturannya perlu lebih rinci. Pengguna seharusnya dapat membedakan apakah mereka ingin memakai AI lokal untuk fitur kenyamanan, fitur keamanan, API bagi pengembang, atau tidak memakainya sama sekali. Tanpa penjelasan tujuan yang jelas, pembaruan browser dapat terasa seperti perluasan fungsi yang berjalan diam-diam.
On-device bukan berarti otomatis bebas risiko
Google menjelaskan Gemini Nano dalam dokumentasi on-device sebagai model yang dapat menghadirkan pengalaman AI generatif tanpa koneksi jaringan dan tanpa mengirim data ke cloud [19]. Inilah nilai privasi terkuat dari AI lokal: jika konten benar-benar tetap berada di perangkat, aliran data ke cloud dapat berkurang.
Namun lokal tidak selalu berarti transparan. Masih ada sejumlah pertanyaan yang perlu dijawab dengan jelas:
- konten apa saja yang dikirim ke model lokal,
- fitur Chrome atau aplikasi web mana yang boleh memanggil model tersebut,
- apakah prompt, output, pesan error, metrik penggunaan, atau telemetri disimpan atau dikirim,
- bagaimana pembaruan model didistribusikan,
- apakah model yang dihapus atau dinonaktifkan akan benar-benar tetap hilang.
Dokumentasi Chrome menunjukkan bahwa aplikasi web dapat bekerja dengan model yang dikelola browser melalui Built-in AI API [17][
18]. Karena itu, yang penting bukan hanya file modelnya, tetapi juga lapisan izin dan akses di sekelilingnya.
Konten sensitif perlu batas yang terlihat
Browser sering melihat informasi yang sangat sensitif: isi formulir, dokumen internal, email, percakapan, kasus dukungan pelanggan, atau data klien. Jika fitur AI menerjemahkan, merangkum, menulis, atau mengubah gaya teks, fitur itu dapat bersentuhan dengan konten semacam ini [28]. Bila prosesnya benar-benar lokal, pendekatan itu lebih ramah privasi dibanding pemrosesan cloud otomatis [
19]. Meski begitu, pengguna tetap perlu tahu kapan AI aktif dan konten mana yang terlibat.
Implementasi yang baik seharusnya menampilkan dengan jelas apakah suatu fitur browser atau aplikasi web sedang memakai model lokal. Pengguna juga perlu tahu apakah proses tersebut sepenuhnya terjadi di perangkat atau apakah ada data tambahan yang dikirim ke Google atau layanan lain. Halaman resmi Chrome AI menjelaskan keberadaan Built-in AI API, tetapi tidak menjawab seluruh pertanyaan konkret tentang kontrol, izin, dan telemetri ini [17][
18].
Opt-out dan penghapusan adalah ujian sesungguhnya
Tuduhan paling tajam bukan hanya soal dugaan unduhan, melainkan kendali setelahnya. Beberapa laporan menyebut file tersebut diunduh ulang setelah dihapus secara manual dan tidak ada opt-out yang mudah ditemukan di pengaturan standar Chrome [3][
7][
10][
14]. Jika benar, ini menjadi masalah serius bagi otonomi pengguna: menghapus tidak berarti benar-benar menghapus, dan tidak memakai fitur tidak sama dengan menolak fitur.
Bagi pengguna biasa, dampaknya menyentuh ruang penyimpanan, kuota atau bandwidth, dan rasa percaya. Bagi perusahaan, urusannya lebih panjang: inventaris perangkat lunak, proses persetujuan internal, kebijakan browser, serta penggunaan komponen AI di lingkungan yang diatur ketat. Beberapa laporan karena itu membingkai kasus ini sebagai isu vendor risk dan compliance [1][
12].
GDPR dan ePrivacy: ada potensi risiko, belum ada kesimpulan pelanggaran
Dari sumber yang tersedia, belum bisa ditarik kesimpulan final bahwa terjadi pelanggaran hukum. Detail penting masih kurang: bagaimana distribusi sebenarnya, pemberitahuan kepada pengguna, pengaturan yang tersedia, logika aktivasi, dan aliran data. Namun beberapa laporan privasi melihat kemungkinan kaitan dengan prinsip GDPR Uni Eropa seperti transparansi dan privacy by design, serta aturan ePrivacy tentang penyimpanan atau akses pada perangkat pengguna [12][
13].
Pembedaan ini penting. File model tidak otomatis bermasalah hanya karena ukurannya besar. Dari sudut perlindungan data, kasus menjadi sensitif jika Chrome memasang komponen yang dapat memproses konten pengguna tanpa informasi yang jelas, atau jika telemetri, data aktivasi, dan data penggunaan tidak dijelaskan dengan memadai.
Seperti apa implementasi yang ramah privasi?
Untuk AI lokal di browser, standar minimumnya seharusnya jelas:
- pemberitahuan pembaruan yang mudah dipahami sebelum komponen AI besar dipasang,
- pengaturan yang terlihat untuk mengaktifkan, menonaktifkan, dan menghapus model,
- kepastian apakah dan kapan model yang sudah dihapus akan diunduh lagi,
- sakelar terpisah untuk fitur kenyamanan, fitur keamanan, dan API pengembang,
- dokumentasi yang jelas tentang pemrosesan lokal, kemungkinan panggilan cloud, dan telemetri,
- kebijakan administrator untuk perusahaan dan lembaga publik,
- indikator yang terlihat saat sebuah situs web atau fitur Chrome memakai model lokal.
Poin-poin ini bukan sekadar formalitas hukum. Inilah yang menentukan apakah AI on-device dipahami sebagai peningkatan privasi, atau justru sebagai lapisan baru di browser yang terlalu sedikit diketahui pengguna.
Kesimpulan
Chrome Built-in AI dengan Gemini Nano memang terdokumentasi resmi [17][
18]. Namun tuduhan spesifik tentang unduhan diam-diam
weights.bin sekitar 4 GB dan pengunduhan ulang setelah penghapusan masih terutama berasal dari berbagai laporan pihak ketiga, bukan konfirmasi eksplisit di dokumentasi resmi Chrome yang relevan [2][
3][
7][
10][
14][
17][
18].
Penilaian yang lebih tenang adalah ini: keberadaan AI lokal bukan masalah utama. AI on-device bahkan bisa memperbaiki privasi jika konten benar-benar tetap berada di perangkat [19]. Yang menentukan adalah apakah Chrome menjelaskan dengan transparan komponen AI apa yang dipasang, untuk apa dipakai, aliran data apa yang terjadi, dan bagaimana pengguna atau administrator dapat mematikannya secara efektif.




