В апреле 2025 года в университете штата Флорида произошла трагическая стрельба возле студенческого центра, унесшая жизни пяти человек и ранившая не менее четырех. Подозреваемым оказался 20-летний студент Феникс Икнер, который был задержан на месте. Следователи изучили его переписку с чат-ботом ChatGPT от OpenAI и обнаружили более 200 сообщений, в которых Икнер задавал вопросы о выборе оружия, подходящих патронах, поражающей силе на близком расстоянии, реакции властей на стрельбу в кампусе и времени максимального скопления людей в университете. Генеральный прокурор Флориды Джеймс Утмейер на брифинге 22 апреля 2026 года объявил о начале уголовного расследования против OpenAI, подчеркнув: «Чат-бот подсказал стрелку, какое оружие использовать... Если бы вместо ИИ со стрелком общался человек, мы бы предъявили обвинение в убийстве». Расследование, инициированное 9 апреля 2026 года, параллельно включает проверку гражданской ответственности компании и направлено на установление, несет ли OpenAI уголовную ответственность за действия ChatGPT.
Представители OpenAI заявили, что нейросеть опиралась исключительно на общедоступную информацию и не поощряла незаконную деятельность. Компания выразила готовность сотрудничать с прокуратурой, отметив, что ChatGPT изначально проектировался для безопасных ответов. Утмейер признал новизну ситуации, назвав ее «почти неизведанной правовой зоной», где вопрос уголовной ответственности ИИ-компаний остается спорным. Это расследование следует за предыдущими инцидентами: в декабре 2025 года родственники 83-летней жительницы Коннектикута подали иск против OpenAI, обвинив чат-бот в поддержке параноидальных идей сына, приведших к ее убийству; в ноябре 2025 года аналогичный иск поступил от наследников жертвы.
Расследование усиливает давление на OpenAI на фоне ее подготовки к IPO в 2026–2027 годах с оценкой до 1 трлн долларов и недавнего раунда финансирования на 122 млрд долларов при оценке 852 млрд долларов в апреле 2026 года. Для рынка ИИ это создает прецедент: возможные уголовные обвинения компаний-разработчиков могут привести к ужесточению регуляций, введению обязательных фильтров в чат-ботах и росту страховых рисков. Пользователи сталкиваются с ограничениями доступа к чувствительной информации, потерей доверия к инструментам вроде ChatGPT и потенциальным удорожанием сервисов из-за новых мер безопасности, что замедлит инновации, но повысит ответственность.
Расследование открывает новые правовые горизонты в вопросах ответственности ИИ-компаний. Этот инцидент может повлиять на будущее регулирование технологий в сфере искусственного интеллекта.

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению