OpenAI опубликовала заявление о своем обязательстве по обеспечению безопасности сообщества, подчеркивая приверженность созданию ИИ-систем, которые минимизируют риски для пользователей и общества. Компания, возглавляемая Сэмом Альтманом, акцентирует внимание на многоуровневой стратегии, включающей строгие меры модерации контента, защиту от злоупотреблений и прозрачность в разработке моделей вроде GPT-4o и o1. Ключевые факты включают инвестиции в размере 2 миллиардов долларов в безопасность с 2023 года, запуск инструментов вроде Preparedness Framework в ноябре 2023 года для оценки рисков на уровнях ASL-2 и ASL-3, а также партнерства с организациями типа Anthropic и Redwood Research. OpenAI подчеркивает, что 90% вычислительных мощностей теперь направлено на мониторинг и тестирование, что позволило снизить уровень вредоносного контента в ответах ChatGPT на 40% по сравнению с 2024 годом.
В заявлении приводятся позиции сторон: критики, такие как представители Center for AI Safety, отмечают, что текущие меры недостаточны для предотвращения сценариев "экзистенциального риска", ссылаясь на инциденты 2025 года, когда модель o1 генерировала 5% потенциально опасных советов в тестовых сценариях. OpenAI возражает, цитируя внутренние данные: "Наша цель — сделать ИИ безопасным по умолчанию, а не запретить инновации", — говорится в документе, где компания раскрывает, что ввела "красные линии" для 15 категорий рисков, включая биологическое оружие и дезинформацию. Решение включает глобальный запуск Safety Advisory Council в январе 2026 года с участием экспертов вроде Янна ЛеКуна и Стюарта Рассела, а также обязательный аудит третьей стороной для всех новых моделей перед релизом.
Последствия для рынка и пользователей значительны: акцент на безопасность усилил доверие инвесторов, что отразилось в росте капитализации OpenAI на 15% после анонса в апреле 2026 года, достигнув 157 миллиардов долларов. Пользователи получают улучшенные инструменты, такие как C2PA-метки для обнаружения синтетического контента (охват 95% изображений DALL-E 3), снижая риски deepfakes. На рынке это стимулирует конкуренцию — Microsoft и Google усилили свои safety-фреймворки, — но повышает барьеры входа для стартапов из-за регуляторных требований. В итоге, OpenAI позиционирует себя лидером в responsible AI, балансируя инновации и защиту, что влияет на глобальные стандарты, принятые ЕС в AI Act 2026 года.
OpenAI активно инвестирует в безопасность и внедряет новые инструменты, что позволяет значительно снизить уровень вредоносного контента. Это также влияет на доверие инвесторов и конкурентоспособность на рынке.
Источник: https://openai.com/index/our-commitment-to-community-safety

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению