Google запустила Gemini в Chrome на Индию и Канаду. Разбираем on-device vs облачный inference и как интегрировать браузерный ИИ в веб-приложения.
VibeLab
Поделиться

Google развернула Gemini в Chrome на Индию, Канаду и Новую Зеландию — и это не региональная новость. Это индикатор стратегии поэтапного внедрения LLM в браузер, которую стоит разобрать каждому разработчику, закладывающему AI-функции в веб-приложения. Разбираем техническую подноготную, смотрим на API и отвечаем на вопрос, который почти никто не задаёт: Gemini в браузере — это on-device inference или облачный прокси в красивой обёртке?
11 марта 2026 года Google объявила о расширении AI-функций Chrome на три новых региона: Индию, Новую Зеландию и Канаду. Одновременно добавлена поддержка более 50 языков, включая хинди, французский и испанский. Функции построены на Gemini 3.1 и доступны на десктопе и iOS.
Набор возможностей знакомый: чат с Gemini прямо в боковой панели браузера, работа с контекстом нескольких вкладок, интеграция с Gmail, Maps, Calendar, YouTube. Добавилась трансформация изображений через Nano Banana 2 — генеративная модель, встроенная непосредственно в Chrome.
Но сам по себе список регионов — не главное. Главное — паттерн, который за ним стоит.
Google не раскатывает AI-фичи одним релизом на весь мир. Компания использует staged rollout — поэтапное развёртывание с контролем метрик на каждом шаге. Такой подход не уникален для Chrome: Google применяла его при запуске SGE (Search Generative Experience), Bard и интеграции Gemini в Workspace.
Логика выбора регионов прозрачна. Первая волна — США, где живёт основная база ранних адоптеров и инженерная команда может быстро реагировать на баги. Вторая волна — англоязычные рынки с высоким уровнем доверия к AI и развитой инфраструктурой: Канада, Новая Зеландия, Австралия, Великобритания.
Индия в этом списке — отдельный сигнал. Это не эксперимент, а заявка на масштаб. Индия — второй по величине рынок Chrome с более чем 400 миллионами пользователей браузера. Если Google выкатывает Gemini на Индию, значит, инфраструктура готова к нагрузке, а модели достаточно стабильны для массового использования.
Путь от экспериментальных флагов до регионального GA занял около двух лет:
chrome://flags/#optimization-guide-on-device-model, chrome://flags/#prompt-api-for-gemini-nano. Доступ только для разработчиков.Паттерн виден: Canary-флаги → Origin Trial → ограниченный GA → региональное масштабирование. Каждый этап — 3–6 месяцев. Разработчику, планирующему архитектуру с browser-native AI, полезно закладывать именно такой горизонт.
Вот главная развилка, которую пресс-релизы Google аккуратно обходят. Когда пользователь открывает боковую панель Gemini в Chrome и задаёт вопрос — где происходит inference? На устройстве или в облаке?
Ответ: зависит от задачи и модели.
Google использует гибридную архитектуру. Gemini Nano — компактная модель, которая работает локально на устройстве. Gemini 3.1 (эволюция линейки Pro/Ultra) — облачная модель, к которой браузер обращается через API.
Когда пользователь суммаризирует статью или переводит фрагмент текста — это с высокой вероятностью Gemini Nano, локальный inference. Когда Chrome «работает с несколькими вкладками», «составляет таблицу сравнения товаров» или «отправляет email через Gmail» — это облачный Gemini 3.1 с доступом к контексту Google-сервисов.
Технические маркеры, по которым можно отличить one от другого:
| Параметр | On-device (Gemini Nano) | Cloud (Gemini 3.1) |
|---|---|---|
| Латентность первого токена | 50–200 мс | 300–800 мс |
| Работа офлайн | Да (после загрузки модели) | Нет |
| Контекстное окно | ~4K токенов | 128K+ токенов |
| Мультимодальность | Ограниченная | Полная |
| Сложные рассуждения | Базовые | Продвинутые |
| Доступ к внешним сервисам | Нет | Да (Gmail, Maps и др.) |
Для разработчика это критическое различие. Browser-native API, работающий через on-device модель, даёт предсказуемую латентность и приватность данных. Облачный прокси — мощность и контекст, но зависимость от сети и сервер
Поделимся опытом
8 800 201 85 68