Anthropic сказала «нет» — и вылетела. Пентагон нашёл тех, кто говорит «да» без условий
Искусственный интеллект идёт на войну. Без ограничений, без Anthropic и с одобрения Конгресса.
Пентагон резко расширяет применение искусственного интеллекта в армии и готов пускать его туда, где раньше действовали жёсткие ограничения. Теперь речь идёт не только о вспомогательных задачах, но и о секретных операциях, включая помощь при выборе целей. Министерство обороны США заключило новые соглашения с Nvidia, Microsoft, Amazon и Reflection AI. Позже к списку присоединилась и Oracle. Все компании согласились предоставить свои решения для использования в засекреченных военных сетях.
Новые условия дают военным гораздо больше свободы. Формулировка «законное оперативное использование» позволяет применять современные модели искусственного интеллекта в боевых задачах, включая анализ данных для наведения. При этом ограничения, на которых настаивала Anthropic, фактически убрали. Ранее компания отказалась от сотрудничества после споров с ведомством.
Американские военные и раньше использовали разработки технологических компаний, но с конца 2025 года добиваются расширения правил. В похожих соглашениях уже участвуют SpaceX, OpenAI и Google. После новостей о контракте акции Oracle выросли на 6,5%. В Пентагоне прямо говорят о смене курса: армия должна стать «ориентированной на искусственный интеллект». Заодно ведомство пытается снизить зависимость от отдельных поставщиков и ускоряет поиск альтернатив системе Claude, с которой возник конфликт.
Спор с Anthropic оказался жёстким. Компания не хотела, чтобы технологии применяли для массовой слежки за гражданами или полностью автономного оружия. Военные отказались принимать такие ограничения и начали вытеснять разработчика из цепочек поставок. Конфликт уже дошёл до суда. Новые договорённости с Nvidia показывают, насколько изменилась позиция Пентагона. Компания согласилась не вводить дополнительных ограничений на использование своих моделей, кроме требований американского законодательства. Военные смогут применять технологии даже при разработке автономных систем вооружений.
При этом в ведомстве уверяют, что окончательные решения по применению силы остаются за людьми. Министр обороны Пит Хегсет заявил в Конгрессе, что искусственный интеллект не принимает смертельные решения. Военные рассчитывают, что новые инструменты помогут быстрее обрабатывать огромные объёмы данных и лучше ориентироваться в сложной обстановке. Уже сейчас такие системы применяются, например, в платформе Maven, которая используется при операциях, связанных с Ираном.
Критики предупреждают о рисках. Алгоритмы могут ошибаться, а военные могут слишком доверять их выводам. Такая зависимость от автоматических решений в задачах, где цена ошибки – человеческая жизнь, вызывает всё больше споров.