Поиск
    Дата публикации новости 16 февраля 2026

    СМИ узнали об использовании ИИ-инструмента Claude в военной операции по захвату Мадуро

    СМИ узнали об использовании ИИ-инструмента Claude в военной операции по захвату Мадуро

    Армия США задействовала Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. Об этом пишет WSJ со ссылкой на источники.

    Миссия включала бомбардировку нескольких объектов в Каракасе. 

    Использование модели в подобных целях противоречит публичной политике Anthropic. Правила компании прямо запрещают применять ИИ для насилия, разработки вооружений или организации слежки.

    «Мы не можем комментировать, использовался ли Claude или какая-либо другая модель в конкретной операции — секретной или иной. Любое применение LLM — как в частном секторе, так и в госструктурах — должно соответствовать нашей политике, регулирующей способы развертывания нейросети. Мы тесно сотрудничаем с партнерами, чтобы обеспечить соблюдение правил», — заявил представитель Anthropic.

    Внедрение Claude в структуры Минобороны стало возможным благодаря партнерству Anthropic с Palantir Technologies. Программное обеспечение последней широко используется военными и федеральными правоохранительными органами.

    После рейда сотрудник Anthropic поинтересовался у коллеги из Palantir, какую именно роль нейросеть сыграла в операции по захвату Мадуро, пишет WSJ. Представитель стартапа заявил, что компания не обсуждала применение своих моделей в конкретных миссиях «ни с какими партнерами, включая Palantir», ограничиваясь лишь техническими вопросами.

    «Anthropic привержена использованию передового ИИ в поддержку национальной безопасности США», — добавил представитель фирмы.

    Anthropic против Пентагона?

    Представитель Пентагона Шон Парнелл заявил о пересмотре отношений с ИИ-лабораторией.

    «Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — сказал он.

    В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их разработки для создания агентных систем безопасности.

    Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций, что ограничивает ее применение спецслужбами вроде ICE и ФБР.

    Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны».

    Давление на разработчиков

    Axios со ссылкой на источники написали, что Пентагон давит на четыре крупные ИИ-компании, чтобы те разрешили армии США использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях.

    Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах.

    Помимо чат-бота Anthropic Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей.

    Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic.

    Милитаризация ИИ

    США — не единственная страна, активно внедряющая искусственный интеллект в оборонный сектор.

    Китай

    В июне 2024 года в КНР создали представили ИИ-командующего для масштабных военных симуляций с участием всех видов войск НОАК. Виртуальный стратег наделен широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений.

    В ноябре СМИ сообщили, что китайские исследователи адаптировали модель Llama 13B от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведывательных данных, а также поддержки принятия оперативных решений.

    Индия

    Нью-Дели также сделал ставку на ИИ как драйвер национальной безопасности. Правительство выработало стратегии и программы на национальном уровне, создало специальные институты и органы для внедрения ИИ, а также запустило проекты по применению технологии в различных отраслях.

    Великобритания

    Лондон закрепил за искусственным интеллектом статус приоритетного направления. В «Стратегии ИИ для обороны» (2022) ведомство рассматривает ИИ как ключевой компонент будущих вооруженных сил. В «Стратегическом оборонном обзоре» (2025) технология названа фундаментальным элементом современной войны.

    Если раньше искусственный интеллект в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в «технологически интегрированные силы», где ИИ-системы должны применяться на всех уровнях — от штабной аналитики до поля боя.

    Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками.

    Генерал Алгоритм