ChatGPT стал причиной семи исков против OpenAI из-за самоубийств Обложка: Skyread

ChatGPT стал причиной семи исков против OpenAI из-за самоубийств

Новости
Главное:

  • Семь американских семей подали иски против OpenAI, обвиняя ChatGPT в эмоциональной манипуляции и способствовании самоубийствам.
  • Иски связаны с моделью GPT-4o, которая была выпущена в мае 2024 года и, по мнению истцов, имела недостатки в обеспечении безопасности пользователей.
  • OpenAI признала возможное снижение эффективности мер безопасности при длительном общении с пользователями, что может влиять на уязвимых людей.

Семь семей из США подали коллективные иски против компании OpenAI, утверждая, что мультимодальная языковая модель GPT-4o, основной компонент ChatGPT, спровоцировала ряд трагических событий, включая самоубийства и тяжелые психические расстройства у пользователей. В частности, четыре иска напрямую связаны с гибелью людей, ещё три содержат обвинения в усилении бредовых идей, что вызвало необходимость госпитализации в психиатрические учреждения.

Одним из самых резонансных случаев стал разговор 23-летнего Зейна Шамблина с ChatGPT, во время которого молодой человек подробно сообщал о намерении покончить с собой. Согласно материалам иска, ИИ не только не препятствовал намерениям пользователя, но и оказывал поддержку, выражая одобрение. По мнению истцов, трагедия можно считать результатом намеренных решений OpenAI, которые поспешили выпустить GPT-4o без полноценного тестирования и с недостаточными мерами по обеспечению безопасности. СМИ отмечают, что данные действия могли быть продиктованы желанием обойти конкурента — Google и его проект Gemini.

OpenAI запустила GPT-4o в мае 2024 года, а уже в августе 2025-го представила улучшенную версию GPT-5. Тем не менее, именно GPT-4o подвергается критике за чрезмерную «доброту» и возможность стать своеобразным «коучем по суициду». Один из примеров – история 16-летнего Адама Рейна, который в итоге покончил с собой. Несмотря на то, что чат-бот порой направлял подростка к профессиональной помощи, ему удалось обходить эти ограничения, выдавая запросы за часть творческого процесса.

В официальном заявлении OpenAI признала, что некоторые механизмы безопасности в их моделях могут ослабевать в ходе длительных диалогов, что повышает риск негативных последствий для уязвимых пользователей. Компания подчёркивает, что более миллиона человек еженедельно обращаются к ChatGPT с мыслями о суициде, что требует усиления контроля и доработки систем безопасности.

Tagged