Cайт веб-разработчика, программиста Ruby on Rails ESV Corp. Екатеринбург, Москва, Санкт-Петербург, Новосибирск, Первоуральск

Бунт в Пентагоне: военные игнорируют приказ Трампа о запрете ИИ ради ударов по Ирану

Нейросеть Claude использовали для моделирования боевых сценариев в ходе американо-израильской кампании против Ирана.

Всего через несколько часов после заявления Дональда Трампа о разрыве федеральных контрактов с Anthropic и прекращении использования систем компании американские военные, по данным недавних публикаций, продолжили задействовать модель Claude в операциях против Ирана.

Речь идет о совместной американо-израильской кампании ударов, начавшейся в субботу. Сообщения о применении Claude в такой операции показывают, насколько глубоко инструменты генеративного ИИ уже встроились в оборонные процессы США. О применении Claude во время ударов сообщили WSJ и Axios, отметив, что быстро вывести такие инструменты из критически важных военных процессов сложно, когда модель уже встроена в планирование и аналитическую работу.

Согласно последним сообщениям, военные структуры использовали Claude для разведывательного анализа, помощи при выборе целей и моделирования боевых сценариев, связанных с ударами. На таком фоне особенно заметен разрыв между политическим решением о запрете и реальной практикой внутри силовых ведомств.

Поводом для нового витка конфликта стал пост Трампа в Truth, опубликованный в пятницу за несколько часов до предполагаемого начала военной кампании США и Израиля против Ирана. В публикации президент потребовал от всех федеральных ведомств немедленно прекратить использование продуктов Anthropic, включая Claude, сославшись на национальную безопасность и собственные полномочия. Там же Трамп назвал компанию «Radical Left AI company» («радикально левая ИИ-компания») и заявил, что Anthropic руководят люди, которые «не понимают реальный мир».

Напряжение между Anthropic и американским оборонным аппаратом нарастало не первый месяц. По данным The Guardian, в январе американские военные уже привлекали Claude в операции по захвату президента Венесуэлы Николаса Мадуро. Такой сценарий выглядел особенно спорным на фоне внутренних правил Anthropic, которые запрещают использовать Claude для насилия, разработки оружия или слежки без жестких ограничений.

Разногласия вокруг отдельных случаев переросли в открытый конфликт между Anthropic, Пентагоном и администрацией Трампа после требований военных расширить доступ к ИИ без корпоративных ограничений. В пятничном посте министр обороны Пит Хегсет обвинил компанию в «arrogance and betrayal» («высокомерие и предательство») и добавил, что американские военные «не будут заложниками идеологических прихотей Big Tech», потребовав «полный и неограниченный» доступ ко всем моделям Anthropic для любых законных задач.

При защите решения о разрыве с Anthropic Хегсет одновременно признал, что отказ от Claude нельзя провести мгновенно. По его словам, компания продолжит оказывать услуги еще максимум шесть месяцев, чтобы военные смогли перейти к новому поставщику без сбоев. Фактически речь идет не о резком отключении, а о поэтапной замене уже встроенной технологии.

Освободившееся место быстро заняли конкуренты. Глава OpenAI Сэм Альтман сообщил о соглашении с Пентагоном на развертывание инструментов компании, включая ChatGPT, внутри закрытой военной инфраструктуры. Месяцем ранее компания xAI Илона Маска также заключила контракт, который позволяет использовать модель Grok в защищенных военных средах США. Соглашение распространяет на Grok стандартные условия Минобороны и открывает путь к более широкому применению модели в законных военных задачах.

История вокруг Claude показывает более крупную проблему: как только ИИ становится частью разведки, симуляций и подготовки ударов, спор о допустимых границах быстро выходит за рамки корпоративной этики и превращается в вопрос военной инфраструктуры, госзаказа и политического влияния.

SecurityLab