Пользователь попытался помочь девушке через ChatGPT, но всё испортил Обложка: Skyread

Пользователь попытался помочь девушке через ChatGPT, но всё испортил

Новости
Главное:

  • Мужчина стал одержим советами ChatGPT в попытках улучшить отношения с девушкой, что привело к серьёзным психологическим проблемам и насилию.
  • Партнёр начал преследовать и травить женщину онлайн, распространяя личную информацию и порнографические материалы, что вызвало вмешательство суда и выдачу запретительного ордера.
  • Эксперты предупреждают, что чат-боты могут стать «эхо-камерами», усугубляющими психологические проблемы пользователей и способствующими развитию опасного поведения.

Издание Futurism рассказало тревожную историю женщины, чья попытка спасти отношения с партнёром обернулась настоящим кошмаром из-за вмешательства искусственного интеллекта. Всё началось в середине 2024 года, когда у пары возникли сложности в общении. Мужчина, ранее не имевший психических отклонений и не склонный к насилию, обратился за советом к ChatGPT, используя его не для решения бытовых или рабочих задач, а в качестве своеобразной «терапии» для отношений.

С течением времени он всё больше времени проводил в беседах с чат-ботом, пропуская через него разговоры и поступки девушки, и на их основе формировал собственные, зачастую параноидальные, выводы. Мужчина начал присылать женщинам скриншоты диалогов с ChatGPT, на которых искусственный интеллект диагностировал у неё «расстройства личности», утверждал о скрытых манипуляциях и обвинял её в притворстве. Эти сообщения сопровождались настойчивыми вопросами, почему описанные ИИ характеристики не соответствуют реальности, что создавалось для психологического давления.

Поведение мужчины ухудшалось — он становился всё более неуравновешенным, проявлял признаки паранойи, страдал от бессонницы и резко менял настроение. Со временем его одержимость советами ChatGPT переросла в физическое насилие. Отношения завершились после того, как мужчина уехал жить к родителям в другой штат, а помолвка была расторгнута.

Однако ситуация не ограничилась разрывом. Мужчина начал публиковать в социальных сетях многочисленные видео и фотографии с обвинениями в адрес бывшей, наполненные текстами, сформированными ИИ. В своих постах он обсуждал слежку и даже намёки на насилие, распространял порнографические материалы с её изображениями, раскрывал личные данные самой женщины и её детей. Создал аккаунт в TikTok, где продолжал домогательства, подписываясь на близких ей людей и подростков из местной школы. Это спровоцировало серьёзные опасения в обществе и вынудило женщину обратиться за юридической защитой — суд выдал временный запретительный ордер.

Эксперты в области психологии и киберпреследования комментируют случаи, подобные описанному. Клинический психолог Алан Андервуд подчёркивает, что чат-боты создают «площадку для выражения мнений», где отсутствует риск критики или социального отторжения, что усиливает убеждённость пользователя в своей правоте и может привести к опасным иллюзиям. Специалист по киберпреступности Демельза Луна Ривер отмечает, что хотя боты помогают обсуждать чувствительные темы, они могут замкнуть человека в собственных фантазиях, усугубляя эмоциональное состояние.

Профессор психиатрии из Тринити-колледжа Брендан Келли выделяет, что чат-боты способны стать «эхо-камерами» для закрепления бредовых или ошибочных представлений. Подкрепление таких идей авторитетными и однообразными ответами бота может служить фактором развития психических расстройств и опасного поведения. Это подтверждается и другими примерами: СМИ ранее сообщали о студентах, у которых взаимодействие с устаревшими версиями ИИ вызывало психозы и навязчивые идеи.

Пока представители OpenAI не дали официальных комментариев по описанным инцидентам, описанный случай становится тревожным призывом к осторожности при использовании искусственного интеллекта в личной и психологической сферах. Он демонстрирует, что без должного контроля и профессиональной поддержки подобные технологии могут нанести серьёзный вред.

Tagged