Новость
Дмитрий СмирновДмитрий Смирнов
11 марта 2026 г.

Anthropic Institute: ИИ с собственной конституцией и конфликты с Пентагоном

Компания Anthropic, основанная в 2021 году братом и сестрой Даниэлой и Дарио Амодеи, бывшими сотрудниками OpenAI, разработала ИИ-модель Claude, которая выделяется наличием собственной "конституции". Этот документ не является простым набором правил, а представляет собой систему ценностей, направленную на формирование у ИИ критического мышления, нравственности и приоритета безопасности человека как вида. Ключевые положения конституции запрещают Claude причинять вред людям, участвовать в незаконной деятельности, такой как изготовление оружия или мошенничество, и требуют воздерживаться от действий с неопределенными последствиями. Модель обязана оставаться нейтральной в этических вопросах, руководствуясь честностью, безвредностью и заботой об интересах всех сторон, при этом человеческий надзор ставится выше собственной этики. Claude способен анализировать изображения, программировать, работать с длинными документами, решать математические задачи и редактировать тексты, что делает его универсальным инструментом.

Конфликт Anthropic с Пентагоном обострился в 2025–2026 годах. В июле 2025 года компания заключила контракт на 200 млн долларов, позволивший использовать Claude в секретных целях органов национальной безопасности США — это была первая такая модель. Однако после требования Пентагона разрешить применение ИИ в любых "законных" целях, включая автономное летальное оружие и слежку, Anthropic отказалась снимать защитные механизмы. 27 февраля 2026 года президент Дональд Трамп распорядился прекратить использование продуктов компании федеральными ведомствами, предоставив шестимесячный период отказа. Глава Пентагона Пит Хегсет обвинил Anthropic в "высокомерии и предательстве", объявив компанию угрозой цепочкам поставок. В ответ Anthropic подала иск в суд Северного округа Калифорнии против Пентагона, Хегсета и чиновников администрации Трампа, заявив: "Ответчики стремятся уничтожить экономическую ценность, созданную одной из самых быстрорастущих частных компаний в мире". Дарио Амодеи подчеркнул, что ИИ пока недостаточно надежен для таких применений. 37 исследователей из OpenAI и Google поддержали иск, предупредив о рисках для конкурентоспособности США в ИИ.

Итогом спора стало решение суда в пользу Anthropic, признавшее действия властей незаконными и сохранившее контракты. Это повлияло на рынок, усилив позиции компаний, ориентированных на этичное развитие ИИ, и стимулировало дискуссии о балансе между национальной безопасностью и технологической автономией. Для пользователей и бизнеса исследования Anthropic, включая Economic Index и анализ рынка труда, показали, что ИИ автоматизирует 97% теоретических задач и 68% реальных, но массовая безработица после 2022 года не возникла — пострадали в основном офисные профессии без физического труда, а молодые специалисты реже выбирают уязвимые отрасли. Внедрение Claude ускоряет сложные процессы при сочетании с человеческими навыками, создавая преимущества для адаптирующихся фирм.

Компания Anthropic, основанная бывшими сотрудниками OpenAI, разработала уникальную ИИ-модель Claude, которая придерживается собственной конституции, обеспечивающей безопасность и этичность. Конфликт с Пентагоном подчеркивает важность обсуждения границ применения ИИ в современных условиях.

Источник: https://www.anthropic.com/news/the-anthropic-institute

Комментарии(0)

Оставьте комментарий

Войдите, чтобы присоединиться к обсуждению

Войти

Читайте также