Cайт веб-разработчика, программиста Ruby on Rails ESV Corp. Екатеринбург, Москва, Санкт-Петербург, Новосибирск, Первоуральск

Пентагон внес ИИ-компанию в чёрный список за отказ сделать искусственный интеллект опаснее — и считает это совершенно логичным

Администрация США требует отклонить иск разработчика, которого Пентагон назвал угрозой.

Администрация Дональда Трампа в судебном документе, поданном во вторник, заявила, что решение Пентагона внести Anthropic в черный список было законным и обоснованным. Власти США потребовали отклонить иск Anthropic, поданный против решения Пентагона о включении разработчика Claude в перечень рисков.

Министр обороны Пит Хегсет 3 марта признал Anthropic угрозой для цепочки поставок в сфере национальной безопасности. Поводом стал отказ разработчика снять ограничения, которые не позволяют использовать модели Anthropic для автономного оружия и внутренней слежки. Anthropic выпускает ИИ-ассистента Claude и входит в число заметных участников рынка генеративного искусственного интеллекта (ИИ).

В новом отзыве Минюст США утверждает, что Anthropic вряд ли сможет доказать нарушение первой поправки к Конституции США, которая защищает свободу слова. По версии администрации, спор возник не из-за попытки наказать разработчика за взгляды, а из-за контрактных переговоров и соображений национальной безопасности. В документе говорится, что Белый дом распорядился прекратить деловые отношения федеральных ведомств с Anthropic только после того, как разработчик отказался убрать ограничения на применение продуктов. Американские власти отдельно подчеркивают, что отказ снять ограничения считается действием, а не формой защищаемого высказывания.

Anthropic подала иск в федеральный суд Калифорнии и потребовала временно заблокировать решение Пентагона до завершения процесса. Часть юристов считает, что у разработчика есть сильные аргументы и что власти могли выйти за рамки полномочий. В ответ на свежий документ правительства Anthropic сообщила, что изучает позицию администрации. Разработчик добавил, что обращение в суд не меняет курса на использование искусственного интеллекта в интересах национальной безопасности, но нужно для защиты бизнеса, клиентов и партнеров.

Поддержку решению Хегсета публично выразил Дональд Трамп. Формально запрет касается ограниченного круга военных контрактов, но руководство Anthropic считает, что последствия могут оказаться гораздо шире. По оценке менеджмента, удар по репутации и потеря сделок способны обойтись разработчику в миллиарды долларов уже в текущем году.

Конфликт стал итогом нескольких месяцев переговоров между Пентагоном и Anthropic, которые зашли в тупик. После срыва договоренностей Трамп и Хегсет обвинили разработчика в том, что ограничения на использование искусственного интеллекта якобы ставят под угрозу жизни американцев. Anthropic с такой трактовкой не согласилась. Разработчик настаивает, что современные системы искусственного интеллекта пока недостаточно безопасны для автономного оружия, а внутреннюю слежку Anthropic отвергает из принципиальных соображений.

В иске от 9 марта Anthropic назвала решение Пентагона беспрецедентным и незаконным. Разработчик утверждает, что власти нарушили право на свободу слова, право на надлежащую правовую процедуру и требования закона, который обязывает федеральные ведомства соблюдать конкретные процедуры при принятии подобных решений. Параллельно Пентагон присвоил Anthropic статус риска для цепочки поставок по другой норме закона. Такой механизм потенциально может распространить ограничения уже на все федеральное правительство. Отдельное оспаривание второго решения Anthropic ведет в апелляционном суде в Вашингтоне.

SecurityLab