Корпорация Google обсуждает с Министерством обороны США возможность интеграции Gemini в системы Пентагона во всех категориях доступа к информации — от открытых до строго засекреченных. Об этом пишет The Information со ссылкой на источники.
Соглашение позволит Минобороны использовать разработку Google «для всех законных целей».
В ходе переговоров корпорация предложила внести дополнительные положения, которые исключили бы применение Gemini для массовой слежки за гражданами или создания автономного оружия.
Представитель Пентагона отказался напрямую комментировать диалог с Google. Однако он подчеркнул, что ведомство планирует и дальше внедрять передовые ИИ-технологии через тесное сотрудничество с частным сектором на всех уровнях секретности.
Скандал с Anthropic
Недавний конфликт между Пентагоном и ИИ-стартапом Anthropic возник на этой почве. Он перерос в судебное разбирательство и запрет со стороны президента США Дональда Трампа на использование технологий компании во всех федеральных ведомствах.
Предпосылки для этого возникли в июле 2025 года. Тогда Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их решения для создания агентных систем. Из всех подрядчиков только инструменты Anthropic интегрировали в секретные среды благодаря их высокому качеству.
Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения. Разногласия возникли из-за жесткой этической политики стартапа: правила Anthropic запрещают применять модель Claude для массовой слежки и в автономных летальных операциях.
Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны».
Ситуация обострилась в феврале 2026 года, когда армия США задействовала Claude в операции по захвату президента Венесуэлы Николаса Мадуро.
CEO стартапа Дарио Амодей заявил, что Anthropic предпочтет не сотрудничать с Пентагоном, чем согласится на использование своих технологий способом, который может «подорвать, а не защитить демократические ценности». Он подтвердил, что проблема заключается в потенциальном применении инструментов вроде Claude в двух целях: «массовая слежка внутри страны» и «полностью автономное оружие».
Принципиальная позиция Anthropic привела к росту популярности продуктов стартапа — пользователи оценили готовность разработчиков отстаивать их интересы.
В то же время OpenAI столкнулась с критикой за свое соглашение с Министерством обороны. Впоследствии Сэм Альтман назвал решение поспешным.
Возврат к истокам
Текущие переговоры Google и Пентагоном напоминают о событиях 2018 года. Тогда корпорация свернула свое участие в Project Maven — программе, в рамках которой искусственный интеллект применялся для анализа видеозаписей с дронов.
Компания отказалась от проекта из-за резкого недовольства сотрудников. Более 3000 человек подписали открытое письмо к руководству с требованием прекратить разработку ИИ для боевых беспилотников. Этот инцидент спровоцировал широкую дискуссию в технологической отрасли о допустимости использования алгоритмов в военных целях.
Ситуация вызвала дискуссию в технологической отрасли касательно применения ИИ в военных целях.
С тех пор Google планомерно восстанавливала отношения с правительством. В 2022 году компания создала специальное подразделение по работе с государственным сектором.
В 2024 году компания подписала соглашение о сотрудничестве в области ИИ с Минобороны. Оно ограничивалось применением технологии в несекретной части.
В начале 2025 года Google удалила из своих внутренних принципов ИИ пункт, который прямо запрещал использование технологии в «оружии и системах наблюдения».
Потенциальное подписание контракта, допускающего работу в секретных средах, означает выход за пределы обычного «сотрудничества». Подобный шаг указывает на готовность к полномасштабной интеграции технологий компании в ключевые оборонные операции.
Сотрудники против
Участие Google в оборонных контрактах продолжает вызывать внутреннее недовольство.
В 2018 году компания пообещала никогда не работать над военными технологиями. Однако в апреле 2024 года стало известно о предоставлении услуг облачных вычислений и доступа к службам ИИ Министерству обороны Израиля.
На фоне этого около 200 сотрудников DeepMind, профильного ИИ-подразделения Google, выразили официальный протест. Они призвали расторгнуть соглашения с оборонными ведомствами. Авторы инициативы опасаются, что передовые разработки лаборатории передаются армиям, ведущим реальные боевые действия.
«Любое участие в военном и оружейном производстве негативно сказывается на нашей позиции лидера в области этического и ответственного ИИ, а также противоречит нашей миссии и заявленным принципам искусственного интеллекта», — говорится в документе, который собрал подписи около 5% сотрудников.
Пентагон настаивает
В феврале СМИ узнали о том, что Пентагон призывает ведущие компании в сфере ИИ сделать свои инструменты доступными в секретных средах без стандартных ограничений, которые обычно применяются для пользователей.
Такие сети используются для выполнения широкого спектра конфиденциальных задач вроде планирования операций или наведения оружия. Военные хотят использовать способность ИИ синтезировать информацию для содействия принятия решений.
Однако нейросети могут допускать ошибки и придумывать информацию. Применение таких инструментов в боевых условиях чревато фатальными последствиями.
ИИ-компании стремятся минимизировать негативные стороны своих продуктов, однако в Пентагоне возмущены такими ограничениями.
Напомним, в Минобороны намерены ускорить принятие решений с помощью искусственного интеллекта и сделать его центральным элементом своей стратегии по объединению сенсоров и ударных систем в боевых операциях.