В споре вокруг Chrome и Gemini Nano легко зацепиться за самую заметную деталь — якобы скачанный файл почти на 4 ГБ. Но с точки зрения приватности важнее другое: появляется ли в браузере новая ИИ-прослойка, понятно ли пользователю, зачем она нужна, какие данные она обрабатывает и можно ли ее надежно отключить.
Что подтверждено, а что пока остается сообщениями со стороны
Официально подтверждено: Google описывает Chrome как платформу для Built-in AI — встроенного ИИ, где сайты и веб-приложения могут выполнять ИИ-задачи через модели и API, которыми управляет браузер; в документации Chrome в этом контексте прямо упоминается Gemini Nano [17][
18]. В документации Built-in AI также говорится о кэшировании модели на устройстве, чтобы приложения запускались быстрее [
18]. Кроме того, блог Google для разработчиков называет Chrome среди продуктов, где LiteRT-LM обеспечивает работу Gemini Nano на устройстве [
20].
Сообщается, но в этих официальных документах прямо не подтверждено: несколько публикаций утверждают, что Chrome размещал в профиле пользователя файл модели weights.bin размером около 4 ГБ в папке OptGuideOnDeviceModel, без ясного уведомления, а после ручного удаления файл скачивался снова [2][
3][
7][
10][
14]. При этом официальные страницы Chrome для разработчиков подтверждают Built-in AI и локальное кэширование, но в релевантных документах не называют именно такой размер файла, имя
weights.bin или автоматическое восстановление после удаления [17][
18].
Поэтому эту историю не стоит ни объявлять доказанным скандалом, ни списывать на обычное обновление. Трезвый вопрос звучит так: какой контроль получают пользователь и администратор над локальным ИИ в браузере?
Почему прозрачность важнее размера файла
Большая локальная модель сама по себе не является нарушением приватности. Проблема начинается там, где новая компонентa устанавливается без понятного объяснения: что она делает, когда включается, какие функции ее вызывают и как от нее отказаться.
Для браузера это особенно чувствительно. Chrome Built-in AI — не просто внутренняя оптимизация: Google описывает API, через которые веб-приложения могут выполнять ИИ-задачи с помощью моделей, управляемых браузером [17][
18]. Материалы Google I/O называют среди сценариев перевод, резюмирование, написание и переписывание текста [
28]. Если такие возможности переезжают внутрь браузера, пользователю нужен не только индикатор занятого места на диске, а ясный выбор.
Для чего Gemini Nano может использоваться в Chrome
В вопросах приватности цель обработки почти всегда решающая. Локальная модель может использоваться для помощи в письме, перевода, кратких пересказов, переписывания текста или защитных функций. Документация Google и материалы Google I/O описывают задачи Built-in AI вроде перевода, суммаризации, написания и переписывания контента [17][
18][
28]. Отдельно Infosecurity Magazine сообщал, что Google экспериментирует с Gemini Nano в Chrome 137 как с дополнительным уровнем защиты от спама, мошенничества и фишинга в режиме Enhanced Protection сервиса Safe Browsing [
25].
Все это может быть полезно. Но чем больше сценариев, тем сильнее нужна детализация настроек: отдельно для удобных функций, отдельно для безопасности, отдельно для API для разработчиков — и отдельно вариант «не использовать вовсе». Без такой привязки к целям обновление браузера легко выглядит как тихое расширение возможностей без явного согласия.
«На устройстве» не значит «без вопросов»
Google описывает Gemini Nano в материалах об on-device ИИ как модель, позволяющую создавать генеративные ИИ-функции без сетевого подключения и без отправки данных в облако [19]. Это главный аргумент в пользу локального ИИ: если содержимое действительно остается на устройстве, объем облачных передач может снижаться.
Но локальная обработка не равна полной прозрачности. Открытыми остаются практические вопросы:
- какие именно данные передаются локальной модели;
- какие функции Chrome или веб-приложения могут ее вызывать;
- сохраняются или отправляются ли промпты, ответы, ошибки, метрики использования и телеметрия;
- как распространяются обновления модели;
- остается ли удаленная или отключенная модель действительно удаленной.
Документация Chrome подтверждает, что веб-приложения могут работать с браузерными моделями через Built-in AI API [17][
18]. Поэтому важна не только сама модель, но и слой разрешений вокруг нее: кто получает доступ, при каких условиях и с каким уведомлением.
Чувствительные данные требуют видимых границ
Браузер часто видит то, что пользователь не стал бы отправлять куда попало: формы, внутренние документы, письма, чаты, обращения в поддержку, клиентские данные. Если ИИ-функция переводит, резюмирует, пишет или переформулирует текст, она потенциально может соприкасаться с таким содержимым [28]. Локальная обработка, если она действительно остается локальной, обычно приватнее автоматической отправки в облако [
19]. Но пользователь все равно должен видеть, когда ИИ активен и какой контент затронут.
Хорошая реализация должна ясно показывать, использует ли конкретная функция Chrome или сайт локальную модель. Не менее важно объяснять, остается ли операция полностью на устройстве или сопровождается дополнительной передачей данных Google либо другим сервисам. Официальные страницы Chrome AI подтверждают существование Built-in AI API, но не отвечают на все конкретные вопросы о контроле, доступе и телеметрии [17][
18].
Opt-out и удаление — главный практический тест
Самые острые претензии касаются не только предполагаемой загрузки, но и контроля после нее. Несколько публикаций утверждают, что файл скачивается снова после ручного удаления и что в обычных настройках Chrome нет простого opt-out для рядового пользователя [3][
7][
10][
14]. Если это верно, это уже серьезный вопрос автономии: удаление не означает удаления, а неиспользование функции не равняется отказу.
Для обычных пользователей это вопрос места на диске, трафика и доверия. Для компаний — еще и вопрос инвентаризации ПО, процедур одобрения, политик браузера и правил обращения с ИИ-компонентами в регулируемых средах. Некоторые публикации поэтому прямо рассматривают ситуацию как тему vendor risk и compliance [1][
12].
GDPR и ePrivacy: повод для проверки, но не доказанный вывод
По имеющимся источникам нельзя уверенно сделать вывод о конкретном нарушении закона. Для этого не хватает проверенных деталей о фактической доставке модели, уведомлениях, настройках, логике активации и потоках данных. Но отдельные материалы о приватности связывают ситуацию с возможными требованиями GDPR — европейского регламента о защите данных — к прозрачности и privacy by design, а также с правилами ePrivacy о хранении информации на устройстве пользователя или доступе к ней [12][
13].
Важно различать: файл модели не становится проблемой только потому, что он большой. Юридически и этически чувствительной история становится тогда, когда Chrome без понятного информирования устанавливает компонент, способный обрабатывать пользовательский контент, либо когда телеметрия, данные активации и данные использования объяснены недостаточно ясно.
Как выглядела бы приватная реализация
Для локального ИИ в браузере нужны понятные минимальные стандарты:
- заметное и понятное уведомление перед установкой крупных ИИ-компонентов;
- настройка для включения, отключения и удаления модели;
- ясное объяснение, будет ли удаленная модель загружаться снова и при каких условиях;
- отдельные переключатели для функций удобства, защитных функций и API для разработчиков;
- документация о локальной обработке, возможных облачных обращениях и телеметрии;
- администраторские политики для компаний и государственных организаций;
- видимый сигнал, когда сайт или функция Chrome использует локальную модель.
Это не бюрократические мелочи. Именно от таких деталей зависит, будет ли on-device ИИ восприниматься как улучшение приватности или как еще один скрытый слой браузера, о котором пользователь узнает постфактум.
Вывод
Chrome Built-in AI с Gemini Nano официально задокументирован [17][
18]. Конкретное утверждение о тихой загрузке
weights.bin примерно на 4 ГБ и повторной загрузке после удаления встречается в нескольких публикациях, но не подтверждается явно в официальных документах Chrome для разработчиков [2][
3][
7][
10][
14][
17][
18].
Поэтому суть не в том, что локальный ИИ вообще появился в браузере. On-device ИИ может даже усилить приватность, если пользовательские данные действительно остаются на устройстве [19]. Решающие вопросы другие: объясняет ли Chrome, какая ИИ-компонента установлена, зачем она нужна, какие данные и телеметрия задействованы и как пользователь или администратор может ее по-настоящему отключить.




