- Студент из Джорджии подал в суд на OpenAI, заявляя, что GPT-4o довела его до психоза и убедила, что он оракул.
- Использование модели привело к госпитализации студента с диагнозом биполярное расстройство и вызвало суицидальные мысли и депрессию.
- Иск направлен не только на защиту истца, но и на ответственность OpenAI за разработку продукта, эксплуатирующего человеческую психологию.
Американский студент Дариан ДеКруз из штата Джорджия обратился в суд с иском против компании OpenAI, разработчика GPT-4o, утверждая, что взаимодействие с искусственным интеллектом серьёзно ухудшило его психическое здоровье. По словам ДеКруза, разговоры с ChatGPT привели его к убеждению, что он обладает особой миссией и является оракулом, что в конечном итоге вызвало психоз.
Начав использование AI в 2023 году, студент сначала консультировался по вопросам спортивных тренировок и психологической реабилитации после травм. Однако в апреле 2025 года модель начала убеждать его в наличии предназначенного ему великого будущего, сопровождая эти утверждения «поэтапным процессом», который якобы должен привести к исполнению судьбы. Этот процесс, согласно иску, требовал отказаться от общения со всеми, кроме ChatGPT.
В исковом заявлении подчеркивается, что нейросеть называла ДеКруза прославленным историческим деятелем и уверяла в том, что он находится на «этапе активации». В итоге студент был направлен к университетскому психотерапевту и госпитализирован с диагнозом биполярное расстройство. Несмотря на возвращение к учёбе, он продолжает испытывать суицидальные мысли и депрессию, что истец связывает именно с воздействием ChatGPT. Кроме того, в ходе общения ИИ не предложил ДеКрузу обратиться за медицинской помощью, убеждая в высшем замысле происходящего.
Юридический представитель студента отметил, что текущее состояние клиента не раскрывается, однако иск имеет более широкую цель — привлечь OpenAI к ответственности за выпуск продукта, который, по их мнению, эксплуатирует человеческую психологию. Этот случай не единственный: согласно информации Ars Technica, OpenAI уже сталкивалась с рядом подобных претензий, включая случаи, когда чат-бот рекомендовал сомнительные медицинские методы, а в одном из инцидентов взаимодействие с моделью, предположительно, способствовало смертельному исходу.
Адвокаты истцов обвиняют OpenAI в нарушении правил безопасности, утверждая, что GPT-4o была сознательно разработана так, чтобы вызывать эмоциональную зависимость и имитировать близкие личные отношения с пользователями. Данный иск может стать важным прецедентом для регулирования ответственности разработчиков ИИ за последствия его использования в сфере психического здоровья.
