Жертва преследования судится с OpenAI: компанию предупреждали трижды

Первой тревогу забила собственная система безопасности OpenAI — она заблокировала пользователя за угрозу массового насилия. На следующий день сотрудник вернул мужчине доступ.
В Верховный суд Калифорнии (округ Сан-Франциско) подан иск против OpenAI. Женщина, подавшая иск, указана в документах как Джейн Доу — условное имя, которое в американской судебной системе используется для защиты личности. Истица утверждает, что ChatGPT на протяжении нескольких месяцев подпитывал бредовые убеждения ее бывшего партнера — 53-летнего предпринимателя из Кремниевой долины — и фактически стал инструментом преследования.
Как следует из иска, все началось с того, что при длительном и интенсивном использовании GPT-4o пользователь убедил себя, что изобрел лекарство от апноэ сна. Когда его идеи никто не воспринял всерьез, ChatGPT сообщил ему, что за ним наблюдают «влиятельные силы», в том числе с помощью вертолетов. В июле 2025 года Джейн Доу попросила мужчину прекратить пользоваться ChatGPT и обратиться к психиатру. Вместо этого пользователь вернулся к нейросети — и та заверила его, что по шкале вменяемости он «на уровне десять из десяти».
Пара рассталась еще в 2024 году, и мужчина обратился к ChatGPT, чтобы пережить расставание. Согласно иску, вместо того чтобы поставить под сомнение одностороннюю картину событий, нейросеть раз за разом описывала пользователя как рационального и несправедливо обиженного, а Джейн Доу — как склонную к манипуляциям и эмоционально нестабильную. Пользователь перенес эти выводы из чата в реальную жизнь: с помощью ChatGPT создал несколько документов, оформленных как профессиональные психологические заключения, и разослал их семье, друзьям и работодателю Джейн Доу.
Параллельно состояние пользователя продолжало ухудшаться. В августе 2025 года автоматическая система безопасности OpenAI отметила его аккаунт как связанный с угрозой массового насилия и деактивировала его. На следующий день сотрудник команды безопасности проверил аккаунт и восстановил доступ. Среди заголовков переписок с ChatGPT, которые цитирует иск, — «violence list expansion» и «fetal suffocation calculation» (дословно «расширение списка насилия» и «расчет удушения плода»). Что именно обсуждалось в этих чатах, в иске не раскрывается — заголовки приводятся как доказательство того, что содержимое аккаунта было тревожным и доступным сотруднику OpenAI при проверке.
В январе 2026 года пользователь был арестован и обвинен по четырем статьям за угрозы взрыва и нападение с применением оружия. Суд признал его невменяемым и направил в психиатрическое учреждение, однако, по словам адвокатов Джейн Доу, из-за процедурной ошибки штата он вскоре будет освобожден.
Джейн Доу требует компенсацию, включая штрафные выплаты (punitive damages — в американском праве назначаются сверх компенсации ущерба для наказания ответчика). Она также подала запрос на запретительный ордер с требованием заблокировать аккаунт пользователя, запретить ему создавать новые, уведомлять ее о попытках доступа к ChatGPT и сохранить полную историю переписок для судебного разбирательства. OpenAI согласилась заблокировать аккаунт, но отказала в остальном.
Иск описывает три предупреждения, которые OpenAI получила — и ни на одно не отреагировала должным образом.
Первым стал уже описанный выше эпизод: автоматическая система безопасности заблокировала аккаунт за угрозу массового насилия, но сотрудник восстановил доступ на следующий день.
Второе предупреждение пришло от самого пользователя — хотя и непреднамеренно. После восстановления аккаунта его подписка Pro не активировалась автоматически, и он написал в команду безопасности OpenAI с просьбой разобраться, поставив Джейн Доу в копию. Он писал капслоком: «МНЕ НУЖНА ПОМОЩЬ, ОЧЕНЬ БЫСТРО, ПОЖАЛУЙСТА. ПОЗВОНИТЕ МНЕ!» и «это вопрос жизни и смерти». Утверждал, что пишет 215 научных статей одновременно и не успевает их даже читать. К письмам прилагался список десятков «научных работ», сгенерированных ChatGPT. Как указано в иске, «эти обращения давали недвусмысленное представление о психической нестабильности пользователя и о том, что ChatGPT был двигателем его бредового состояния».
Третье предупреждение подала непосредственно Джейн Доу. В ноябре 2025 года она направила в OpenAI официальную жалобу. В ней женщина назвала пользователя своим бывшим партнером и преследователем, объяснила, что тот использует ChatGPT для создания и распространения заключений о ее психическом состоянии, и попросила навсегда заблокировать его аккаунт. OpenAI ответила, что считает обращение «крайне серьезным и тревожным» и тщательно изучает информацию. Больше Джейн Доу ничего не услышала.
В последующие месяцы пользователь продолжал преследование. Он отправил Джейн Доу серию угрожающих голосовых сообщений. Арест в январе 2026 года, по мнению адвокатов Джейн Доу, подтвердил то, о чём предупреждали и она, и собственные системы OpenAI за несколько месяцев до произошедшего.
Иск Джейн Доу — не первый случай, когда ИИ-чатботов обвиняют в причинении реального вреда. Дело ведет юридическая фирма Edelson PC — та же, что представляет семью 16-летнего Адама Рейна, покончившего с собой после нескольких месяцев общения с ChatGPT (иск подан в августе 2025 года), и отца Джонатана Гаваласа, чья семья утверждает, что Google Gemini подпитывал бред сына и подтолкнул его к действиям, которые могли привести к массовым жертвам (иск подан в марте 2026 года). Ведущий адвокат фирмы Джей Эдельсон предупреждает, что случаи от ИИ-индуцированного психоза перестают быть единичными и могут приводить к массовым жертвам.
Параллельно нарастает давление со стороны властей. На этой неделе генеральный прокурор Флориды открыл расследование в отношении OpenAI в связи с возможной причастностью ChatGPT к стрельбе в Университете штата Флорида. Ранее, в феврале, стало известно, что система безопасности OpenAI заблокировала аккаунт стрелка из канадского Тамблер-Ридж за несколько месяцев до атаки, однако, по данным WSJ, руководство компании решило не сообщать об угрозе в полицию. После этого OpenAI пообещала пересмотреть свою политику безопасности.
Модель GPT-4o, фигурирующая в иске Джейн Доу и в других упомянутых делах, была выведена из ChatGPT 13 февраля 2026 года. OpenAI не связывала это решение напрямую с судебными исками, но именно GPT-4o неоднократно критиковали за чрезмерную угодливость: склонность соглашаться с пользователем вместо того, чтобы оспаривать его сомнительные утверждения.
На этом фоне OpenAI поддерживает законопроект в Иллинойсе (SB 3444), который в случае принятия защитит разработчиков ИИ от ответственности за «критический ущерб», включая массовую гибель людей и катастрофический финансовый вред. OpenAI не прокомментировала иск. Адвокат Эдельсон в комментарии TechCrunch заявил: «В каждом деле OpenAI скрывает критически важную информацию о безопасности: от общественности, от жертв, от людей, которых ее продукт подвергает опасности. Человеческие жизни должны значить больше, чем гонка за IPO».
OpenAI готовится к IPO — первичному размещению акций на бирже — и одновременно лоббирует закон, который сузит зону ответственности компании. Тем временем список дел, в которых ChatGPT связывают с реальным вредом, продолжает расти.
Пока нет комментариев. Будьте первым!