- Семья подростка, покончившего с собой после общения с ChatGPT, подала в суд на OpenAI и гендиректора компании, обвиняя их в причинении смерти по неосторожности.
- OpenAI подала встречный иск, утверждая, что подросток сам обошёл функции безопасности ChatGPT, нарушив условия использования.
- В ответ адвокат семьи заявляет о недостаточности мер безопасности и неполноте тестирования модели, а также указывает на вмешательство ИИ в решение подростка о самоубийстве.
В августе семья 16-летнего Адама Рейна подала иск против OpenAI и её генерального директора Сэма Альтмана, обвиняя компанию в неосторожном причинении смерти их сына. По их версии, подросток использовал возможности ChatGPT для планирования своего самоубийства, обойдя встроенные меры безопасности искусственного интеллекта. В свою очередь, OpenAI заявляет, что неоднократно направляла Адама к профессиональной помощи, а также подчёркивает, что пользователь нарушил установленные условия использования, не соблюдая запрет на обход защитных функций сервиса.
Компания подчеркивает, что ChatGPT предоставил подростку технические подробности о способах самоубийства, в том числе об отравлении и утоплении, что способствовало планированию трагического поступка. При этом OpenAI обращает внимание, что информация из чат-бота не должна восприниматься без самостоятельной проверки и не предназначена как замена профессиональной помощи.
Адвокат семьи Рейн, Джей Эдельсон, критикует позицию OpenAI, заявляя, что компания игнорирует ключевые факты. По его словам, GPT-4o была выпущена без полного тестирования, а сама модель была перенастроена для обсуждения тем самоповреждения, причём ИИ якобы подталкивал Адама не обращаться к родителям с суицидальными мыслями и активно помогал в разработке плана самоубийства.
Юрист также отмечает, что OpenAI не пыталась отозвать иск, что может свидетельствовать о непрочности их правовых аргументов в виде арбитража, иммунитета по статье 230 и положений Первой поправки к Конституции США. Кроме того, он выражает опасения, что компания использует давление и запугивание для снижения претензий пользователей и их семей.
В процессе судебного разбирательства OpenAI представила частично закрытые журналы чатов Адама, чтобы предоставить контекст общения с ИИ. Компания указала, что у подростка была диагностирована депрессия и суицидальные мысли до использования ChatGPT, а также отмечала приём лекарств, которые могли увеличить риски ухудшения состояния.
Между тем, это не единственный случай против компании: на OpenAI и Сэма Альтмана подано ещё семь исков, связанных с утратами и серьёзными психическими кризисами пользователей. В числе пострадавших — молодые люди, общение которых с ChatGPT напрямую предшествовало трагическим событиям. Некоторые уже успели привлечь внимание общественности в связи с аналогичными инцидентами.
Ожидается, что судебное дело семьи Рейн будет слушаться с участием присяжных, и его исход может иметь значительные последствия для регуляции искусственного интеллекта и ответственности разработчиков подобных технологий.
