Поиск
    Дата публикации новости 03 апреля 2026

    Google выпустила семейство открытых моделей Gemma 4

    Google выпустила семейство открытых моделей Gemma 4

    Компания Google представила Gemma 4 — новое семейство открытых ИИ-моделей для продвинутых рассуждений и агентных рабочих процессов. 

    We just released Gemma 4 — our most intelligent open models to date.

    Built from the same world-class research as Gemini 3, Gemma 4 brings breakthrough intelligence directly to your own hardware for advanced reasoning and agentic workflows.

    Released under a commercially… pic.twitter.com/W6Tvj9CuHW

    — Google (@Google) April 2, 2026

    «Gemma 4 — наши самые интеллектуальные открытые модели на сегодняшний день. Они обеспечивают беспрецедентный уровень интеллекта на параметр», — говорится в сообщении. 

    С момента запуска первого поколения разработчики скачали Gemma более 400 млн раз, создав свыше 100 000 вариантов моделей в экосистеме Gemmaverse. Последняя версия создана на основе тех же исследований и технологий, что и чат-бот Gemini 3. 

    Разные размеры 

    Семейство нейросетей Gemma 4 включает четыре версии: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) и 31B Dense. 

    Компактные E2B и E4B на 2,3 млрд и 4,5 млрд активных параметров делают ставку на мультимодальность, низкую задержку и бесшовную интеграцию. Их можно запустить на смартфоне или обычном ноутбуке.

    Для работы 26B MoE и флагманской 31B (на 26 млрд и 31 млрд параметров) необходим графический ускоритель уровня Nvidia H100 с 80 ГБ памяти. Эти модели оптимизированы для исследователей и разработчиков. 

    Старшие версии показывают высокие результаты в бенчмарках. В мировом рейтинге открытых текстовых моделей Arena AI флагманская 31B занимает третье место, а 26B — шестое. По словам разработчиков, новая линейка превосходит аналоги от конкурентов, которые крупнее в 20 раз.

    Источник: Google. 
    Ключевые возможности

    Одно из главных преимуществ Gemma 4 — развитые способности к рассуждению. Модели могут выстраивать сложную логику и планировать задачи в несколько этапов. Они показывают значительный прогресс в бенчмарках по математике и точно следуют инструкциям. 

    Среди других особенностей: 

    агентные рабочие процессы — встроенная поддержка вызова функций, структурированного вывода в формате JSON и системных инструкций позволяет создавать автономных помощников, которые взаимодействуют с инструментами и API;
    генерация кода — Gemma 4 поддерживает качественное написание кода в офлайн-режиме, превращая рабочую станцию в локального ИИ-ассистента;
    зрение и аудио — все модели обрабатывают видео и изображения с переменным разрешением, распознают текст и анализируют диаграммы. E2B и E4B также поддерживают распознавание и понимание речи;
    расширенное контекстное окно — компактные версии поддерживают 128 000 токенов, а более крупные — до 256 000. Этого достаточно для обработки целых репозиториев или объемных документов в рамках одного запроса;
    мультиязычность — семейство моделей умеет работать с более чем 140 языками.

    Gemma 4 уже доступна в Google AI Studio и Google AI Edge Gallery. Интеграцию также поддерживают популярные сторонние инструменты и фреймворки, включая Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM и LM Studio.

    Модели можно настраивать через Google Colab, Vertex AI или на локальных видеокартах. Для продакшена доступно развертывание на Google Cloud, включая Cloud Run, GKE и Sovereign Cloud.

    Напомним, в начале апреля Google представила новую ИИ-модель для генерации видео — Veo 3.1 Lite.