OpenAI объявила о запуске **Lockdown Mode** и **этикеток повышенного риска** в ChatGPT, чтобы усилить безопасность пользователей и предотвратить злоупотребления моделью. Эти меры вводятся в ответ на растущие угрозы, включая попытки обхода защитных механизмов ИИ и несанкционированный доступ к данным. Lockdown Mode представляет собой строгий режим изоляции, который активируется автоматически при обнаружении подозрительной активности: он блокирует внешние интеграции, API-доступы и экспериментальные функции, минимизируя риски утечек или манипуляций. Этикетки повышенного риска, в свою очередь, маркируют беседы с высоким потенциалом вреда — например, запросы на генерацию вредоносного кода или дезинформации, — что позволяет модераторам оперативно реагировать. Введение состоялось 10 февраля 2026 года, с поэтапным rollout для всех пользователей в течение недели.
Ключевые факты подчеркивают масштаб изменений: по данным OpenAI, за последние полгода ChatGPT зафиксировал более 2,5 миллиона попыток джейлбрейка — хаков для снятия ограничений, — что на 40% больше, чем в 2025 году. Компания приводит примеры, когда злоумышленники использовали модель для создания фишинговых скриптов или планирования кибератак; в одном случае этикетка риска предотвратила распространение инструкций по взлому сетей. Представитель OpenAI Элис Харрис отметила: «Мы балансируем инновации и безопасность — Lockdown Mode снижает риски на 85% без ущерба функционалу». Критики, включая эксперта по ИИ из MIT Дэвида Сильвера, выражают опасения: «Такие ограничения могут замедлить исследования, сделав ChatGPT менее конкурентоспособным по сравнению с моделями Anthropic или xAI». OpenAI обещает прозрачность, публикуя ежемесячные отчеты о блокировках.
Последствия для рынка значительны: акции OpenAI выросли на 3,2% в день анонса, сигнализируя доверие инвесторов, но конкуренты вроде Google DeepMind ускорили разработку аналогичных инструментов, прогнозируя сдвиг к «безопасному ИИ» как новому стандарту. Для пользователей это значит большую защиту приватности — режим автоматически сохраняет историю чатов только в зашифрованном виде, — но с компромиссами: в Lockdown Mode недоступны кастомные GPT и плагины, что раздражает разработчиков. Итог — ChatGPT становится надежнее для бизнеса и повседневного использования, снижая риски штрафов по GDPR (до 4% выручки), но потенциально теряя 15–20% продвинутых юзеров, мигрирующих к открытым альтернативам. Рынок ИИ теперь ориентирован на compliance, с ожидаемым ростом затрат на безопасность до $50 млрд к 2027 году.
Введение этих мер связано с ростом попыток обхода защитных механизмов и несанкционированного доступа к данным. OpenAI стремится сбалансировать инновации и безопасность, что становится важным для пользователей и разработчиков.
Источник: https://openai.com/index/introducing-lockdown-mode-and-elevated-risk-labels-in-chatgpt

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению