Компания Anthropic, разработчик ИИ-модели Claude, подала иск в федеральный суд Калифорнии против Министерства обороны США (Пентагона) в понедельник, 9 марта 2026 года. Конфликт разгорелся после того, как на прошлой неделе Пентагон официально признал Anthropic риском для цепочки поставок, что стало первым подобным случаем для американской компании. Это решение вынуждает подрядчиков прекратить использование Claude в проектах, связанных с Минобороны, включая глубоко интегрированные засекреченные системы, применявшиеся в военных операциях, таких как февральская 2026 года операция по захвату президента Венесуэлы Николаса Мадуро. В июле 2025 года Anthropic заключила контракт на 200 млн долларов с Пентагоном на разработку прототипов ИИ для повышения национальной безопасности, но разногласия возникли из-за отказа компании предоставить неограниченный доступ к своим технологиям без гарантий против их применения в массовой слежке за американцами и создании полностью автономного оружия.
Генеральный директор Anthropic Дарио Амодеи в блоге 10 марта 2026 года заявил: «Мы не считаем это решение юридически обоснованным и не видим иного выхода, кроме как оспорить его в суде». В иске компания требует отменить статус риска и запретить его применение федеральными ведомствами, аргументируя, что «Конституция не позволяет правительству использовать свою колоссальную власть, чтобы наказывать компанию за выражение позиции, защищенной законом». Пентагон, ведомый министром обороны Питом Хегсетом, настаивал на «любых законных способах» использования Claude, выдвинув ультиматум до 27 февраля 2026 года. Президент Дональд Трамп в конце февраля поручил всем федеральным агентствам отказаться от технологий Anthropic в течение шести месяцев, назвав компанию «вышедшей из-под контроля» и управляемой людьми, «не имеющими понятия о реальном мире». Минобороны отказалось от комментариев, ссылаясь на судебный процесс.
Итогом стало внесение Anthropic в «черный список» неблагонадежных поставщиков, что Anthropic оспаривает как незаконное возмездие, нарушающее свободу слова и правовую процедуру. Компания готова предоставлять модели Минобороны по номинальной стоимости в переходный период. Для рынка это создает прецедент: партнеры вроде Microsoft и Google подтвердили, что их невоенные проекты с Anthropic unaffected, но решение усиливает давление на ИИ-фирмы по этическим вопросам. Общественность отреагировала критикой — десятки экс-чиновников разведки, техноассоциации и конгрессмены предупреждают о саморазрушительном прецеденте, угрожающем инновациям в ИИ. Пользователи военных систем сталкиваются с необходимостью срочной замены Claude, что повысит затраты и замедлит проекты, в то время как Anthropic подчеркивает приверженность безопасности ИИ.
Данный случай становится знаковым для индустрии ИИ и поднимает важные вопросы о свободе слова и правовых процедурах в контексте новых технологий.
Источник: https://www.anthropic.com/news/statement-department-of-war

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению