La discusión sobre Chrome y Gemini Nano ha girado alrededor de una cifra llamativa: cuatro gigabytes. Pero, en privacidad, el tamaño del archivo no es necesariamente lo más importante. La pregunta de fondo es otra: si un navegador incorpora una capa nueva de IA capaz de trabajar con contenido del usuario, ¿la anuncia de forma clara, la documenta, la limita y permite desactivarla de verdad?
Lo que está confirmado y lo que aún no
Confirmado oficialmente: Google presenta Chrome como una plataforma para Built-in AI, es decir, IA integrada en el navegador, donde sitios y aplicaciones web pueden realizar tareas de IA con modelos y API gestionados por el propio navegador; la documentación de Chrome menciona expresamente Gemini Nano en ese contexto [17][
18]. Esa documentación también habla de almacenar modelos en caché dentro del dispositivo para que las aplicaciones arranquen más rápido [
18]. Además, un blog para desarrolladores de Google menciona Chrome entre los productos en los que LiteRT-LM permite usar Gemini Nano en el dispositivo [
20].
Reportado, pero no confirmado con ese detalle por Google: varias publicaciones afirman que Chrome habría colocado una archivo de modelo de unos 4 GB llamado weights.bin dentro de la carpeta de perfil OptGuideOnDeviceModel, sin aviso claro y con nueva descarga tras borrarlo manualmente [2][
3][
7][
10][
14]. Las páginas oficiales de Chrome sí respaldan la existencia de Built-in AI y el almacenamiento local de modelos, pero en los documentos citados no confirman ese tamaño exacto, ese nombre de archivo ni la supuesta reinstalación tras eliminarlo [
17][
18].
Por eso conviene evitar dos atajos: ni dar por probado un escándalo completo de privacidad, ni despachar el asunto como si fuera una actualización rutinaria. El punto crítico es qué control tienen usuarios y administradores sobre la IA local dentro del navegador.
Por qué la transparencia pesa más que los 4 GB
Un modelo local grande no es, por sí solo, un problema de privacidad. Lo problemático sería que un componente nuevo se instalara sin que el usuario entendiera qué hace, cuándo se activa, qué datos toca y cómo puede apagarlo.
En el caso de la IA del navegador, esa transparencia es especialmente importante. Built-in AI no es solo una optimización interna: Google describe API que permiten a aplicaciones web ejecutar tareas de IA con modelos gestionados por Chrome [17][
18]. En materiales de Google I/O, su conferencia para desarrolladores, los casos de uso incluyen traducir, resumir, escribir y reescribir contenido [
28]. Si esas capacidades pasan a formar parte del navegador, un simple aviso sobre consumo de almacenamiento no basta. Hace falta una opción comprensible y efectiva.
La finalidad importa: ¿para qué se usa Gemini Nano en Chrome?
La evaluación de privacidad cambia mucho según el propósito. Un modelo local puede servir para ayuda de escritura, traducción, resumen o funciones de seguridad. La documentación de Google y los materiales de Google I/O describen tareas de Built-in AI como traducir, resumir, escribir y reescribir [17][
18][
28]. Por otro lado, Infosecurity Magazine informó de que Google estaba experimentando con Gemini Nano en Chrome 137 como capa adicional contra spam, estafas y phishing dentro del modo Enhanced Protection de Safe Browsing, el sistema de protección de navegación de Chrome [
25].
Eso puede ser útil. También aumenta la necesidad de controles granulares. El usuario debería poder distinguir si quiere IA local para funciones de comodidad, para seguridad, para API de desarrolladores o para nada. Sin una explicación clara de finalidad, una actualización del navegador puede parecer una ampliación silenciosa de funciones.
En el dispositivo no significa automáticamente sin riesgos
Google presenta Gemini Nano, en su documentación sobre IA en el dispositivo, como un modelo que puede ofrecer experiencias de IA generativa sin conexión de red y sin enviar datos a la nube [19]. Ese es el gran argumento a favor de la IA local: si el contenido se queda realmente en el equipo, se reducen los flujos de datos hacia servidores externos.
Pero local no equivale a transparente. Siguen siendo necesarias respuestas claras a preguntas como estas:
- qué contenidos se entregan al modelo local;
- qué funciones de Chrome o qué aplicaciones web pueden invocarlo;
- si se guardan o transmiten prompts, respuestas, errores, métricas de uso o telemetría;
- cómo se distribuyen las actualizaciones del modelo;
- si un modelo borrado o desactivado permanece realmente fuera del dispositivo.
La documentación de Chrome muestra que las aplicaciones web pueden trabajar con modelos gestionados por el navegador mediante API de Built-in AI [17][
18]. Por eso no importa solo el archivo del modelo: también importa la capa de permisos, acceso y registro que lo rodea.
Los contenidos sensibles necesitan límites visibles
Un navegador suele estar delante de información delicada: formularios, documentos internos, correos, chats, casos de soporte o datos de clientes. Si una función de IA traduce, resume, escribe o reformula textos, puede entrar en contacto con ese tipo de contenido [28]. Si el procesamiento se mantiene estrictamente local, la situación es más favorable para la privacidad que una derivación automática a la nube [
19]. Aun así, el usuario debe poder ver cuándo actúa la IA y qué contenido queda afectado.
Una implementación razonable tendría que indicar con claridad si una función de Chrome o una web está usando el modelo local. También tendría que explicar si esa operación se queda en el dispositivo o si implica llamadas adicionales a Google u otros servicios. Las páginas oficiales de Chrome sobre IA integrada explican la existencia de esas API, pero no resuelven todas las preguntas concretas sobre control, permisos y telemetría [17][
18].
El verdadero examen: desactivación y borrado
Las acusaciones más serias no se refieren solo al supuesto archivo descargado, sino al control posterior. Varios informes afirman que el archivo vuelve a descargarse tras borrarlo manualmente y que no hay una opción sencilla de exclusión en los ajustes normales de Chrome [3][
7][
10][
14]. Si eso fuera correcto, el problema de autonomía sería importante: borrar no equivaldría a eliminar, y no usar una función no equivaldría a rechazarla.
Para usuarios particulares, el asunto toca almacenamiento, ancho de banda y confianza. Para empresas, administraciones y entornos regulados, añade más capas: inventario de software, procesos de aprobación, políticas del navegador y reglas internas sobre componentes de IA. Algunos análisis tratan el caso precisamente como un tema de riesgo de proveedor y cumplimiento [1][
12].
RGPD y ePrivacy: posible riesgo, no infracción demostrada
Con las fuentes disponibles no se puede concluir que exista una infracción legal definitiva. Faltan detalles verificados sobre la distribución real, los avisos mostrados, los ajustes disponibles, la lógica de activación y los flujos de datos. Algunos informes de privacidad, sin embargo, ven posibles conexiones con principios del RGPD, como transparencia y protección de datos desde el diseño, y con la normativa ePrivacy de la Unión Europea sobre almacenamiento o acceso a información en equipos terminales [12][
13].
La distinción es importante: un archivo de modelo no es problemático solo porque sea grande. La cuestión se vuelve más delicada si Chrome instala sin información clara un componente capaz de procesar contenido del usuario, o si la telemetría, los datos de activación o las métricas de uso no están explicados de forma suficiente.
Qué debería tener una implementación respetuosa con la privacidad
Para que la IA local en el navegador sea aceptable, hacen falta mínimos claros:
- aviso comprensible antes de instalar componentes grandes de IA;
- ajuste visible para activar, desactivar y eliminar el modelo;
- explicación de si un modelo borrado puede volver a descargarse y bajo qué condiciones;
- controles separados para funciones de comodidad, seguridad y API para desarrolladores;
- documentación clara sobre procesamiento local, posibles llamadas a la nube y telemetría;
- políticas de administración para empresas y organismos públicos;
- indicaciones visibles cuando una web o una función de Chrome usa el modelo local.
Estos puntos no son meras formalidades legales. Son lo que determina si la IA en el dispositivo se percibe como una mejora de privacidad o como una nueva capa del navegador sobre la que el usuario sabe demasiado poco.
Conclusión
Chrome Built-in AI con Gemini Nano está documentado oficialmente [17][
18]. La acusación concreta de una descarga silenciosa de unos 4 GB de
weights.bin, con nueva descarga tras borrarlo, ha sido reportada por varias publicaciones, pero no queda confirmada con ese nivel de detalle en la documentación oficial de Chrome citada [2][
3][
7][
10][
14][
17][
18].
La lectura más prudente es esta: la existencia de IA local no es el problema principal. La IA en el dispositivo puede incluso mejorar la privacidad si el contenido se mantiene realmente en el equipo [19]. Lo decisivo es que Chrome explique con claridad qué componente instala, para qué se usa, qué datos pueden circular y cómo pueden usuarios y administradores desactivarlo de forma efectiva.




