Новость
Дмитрий СмирновДмитрий Смирнов
6 апреля 2026 г.

OpenAI запускает Safety Fellowship для исследований в AI безопасности

OpenAI анонсировала запуск **OpenAI Safety Fellowship** — программы стипендий для ускорения исследований в области безопасности искусственного интеллекта. Инициатива направлена на привлечение талантов для разработки методов контроля рисков, связанных с продвинутыми моделями ИИ, такими как предотвращение нежелательного поведения систем и обеспечение интерпретируемости алгоритмов. Программа стартовала в 2025 году с inaugural летним набором, участники которого уже опубликовали ключевую статью на Mechanistic Interpretability Workshop на конференции NeurIPS, а также бумаги, принятые на ICLR. Некоторые феллоу перешли в ведущие организации, включая Goodfire и Redwood Research. В 2026 году OpenAI планирует масштабирование: проведение нескольких циклов феллоушипа, удвоение числа участников и утроение команды.

Контекст создания программы связан с растущими вызовами в AI safety, где Cambridge Boston Alignment Initiative (CBAI), якорная организация по безопасности ИИ в Кембридже с конца 2022 года, играет ключевую роль. CBAI сотрудничает с университетами Harvard, MIT и Northeastern, организуя воркшопы, такие как Harvard-MIT AI Safety Workshops (пять раз в год в Essex, MA, с 40 участниками и 10 гостями), которые планируется расширить до восьми. Гостями приглашают экспертов из Redwood Research, METR, Google DeepMind, Anthropic и команд OpenAI. Феллоушип интегрируется с этими усилиями, предлагая не только стипендии до 100 000 долларов и API-кредиты до 1 млн долларов, но и практические проекты по оценке угроз и моделированию рисков. Позиция OpenAI подчеркивает: "Мы ускоряем исследования безопасности ИИ через феллоушипы, производя оригинальные работы".

Последствия для рынка и пользователей значительны: программа усиливает экосистему AI safety, готовя специалистов для фронтирных компаний и снижая системные риски суперинтеллекта. Масштабирование в 2026 году (летний феллоушип в Boston metro area) повысит конкуренцию за таланты, стимулируя найм — рефералы кандидатов вознаграждаются 5000 долларов. Для пользователей это означает более надежные ИИ-модели с меньшим риском misuse, особенно в cybersecurity и threat research. Итог — переход феллоу в ключевые фирмы усиливает консенсус по стандартам безопасности, влияя на промышленную политику и инвестиции в resilient AI-инфраструктуру.

Программа нацелена на привлечение талантов и подготовку специалистов для решения актуальных проблем в области AI safety. Участники уже сделали значительные шаги в исследованиях, что подчеркивает важность этой инициативы.

Источник: https://openai.com/index/introducing-openai-safety-fellowship

Комментарии(0)

Оставьте комментарий

Войдите, чтобы присоединиться к обсуждению

Войти

Читайте также