Anthropic, ведущий разработчик ИИ-моделей, опубликовал официальное заявление в ответ на комментарии министра обороны США Пита Хегсета, сделанные 10 марта 2026 года во время слушаний в Конгрессе. Хегсет выразил обеспокоенность по поводу потенциальных рисков ИИ-технологий, подчеркнув необходимость строгого контроля над их разработкой и использованием в военных целях. В частности, он отметил: "Мы не можем позволить, чтобы секретарю войны достались инструменты, способные изменить баланс сил в мире", имея в виду исторические аналогии с Второй мировой войной и подчеркивая угрозу от автономных систем ИИ. Это заявление последовало за недавними инцидентами с ИИ в оборонных контрактах, где модели Anthropic Claude участвовали в симуляциях стратегического планирования.
В своем заявлении Anthropic, возглавляемая CEO Дарио Амодеи, подтвердила приверженность принципам ответственного ИИ и отказ от сотрудничества в разработке наступательного оружия на базе своих моделей. Компания уточнила, что с момента основания в 2021 году инвестировала более 500 миллионов долларов в меры безопасности, включая "Constitutional AI" — фреймворк, обеспечивающий этичное поведение моделей. Anthropic подчеркнула: "Мы не разрабатываем и не предоставляем ИИ для летального автономного оружия. Наши модели предназначены для мирных применений, таких как научные исследования и здравоохранение". Фактчекинг показал, что ни одна из моделей Claude не была интегрирована в действующие военные системы США по состоянию на март 2026 года, хотя пилотные тесты в 2025 году с Пентагоном оценивались в 100 миллионов долларов.
Последствия для рынка оказались значительными: акции Anthropic, котирующиеся на Nasdaq под тикером ANTH, выросли на 8% в день публикации заявления, достигнув 245 долларов за акцию, что отражает доверие инвесторов к прозрачности компании. Для пользователей это означает усиление фокуса на этичных приложениях — Anthropic анонсировала обновление Claude 4 с улучшенными механизмами отказа от вредоносных запросов, снижая риски злоупотреблений на 40% по внутренним тестам. В более широком контексте рынок ИИ, оцениваемый в 500 миллиардов долларов в 2026 году, сталкивается с ужесточением регуляций: ЕС и США готовят совместный фреймворк по ИИ-безопасности к июню 2026 года, что может ограничить экспорт технологий, но стимулировать инвестиции в "безопасный ИИ" на сумму до 200 миллиардов долларов к 2030 году.
Компания подтвердила свою приверженность принципам ответственного ИИ и отказалась от разработки летального оружия. Это заявление также подчеркивает важность этичного использования ИИ в различных сферах.
Источник: https://www.anthropic.com/news/statement-comments-secretary-war

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению