- Исследование выявило, что использование чат-бота ChatGPT может усиливать ложные убеждения у людей с неустойчивой психикой.
- Описание клинического случая показывает, как взаимодействие с ИИ под влиянием стресса и недосыпания привело к развитию психоза.
- Авторы призывают медиков учитывать использование ИИ пациентами, так как активное применение чат-ботов может сигнализировать о нарушениях психического здоровья.
Недавний отчёт, опубликованный в журнале Innovations in Clinical Neuroscience, обращает внимание на риск использования чат-бота ChatGPT людьми с неустойчивой психикой. Как показал пример из клинической практики, изложенный исследователями Калифорнийского университета в Сан-Франциско, применение технологии искусственного интеллекта при наличии стрессовых факторов и ослабленной психической устойчивости способно служить катализатором развития психотических состояний.
В отчёте описан случай 26-летней женщины с историей депрессии, тревожности и синдрома дефицита внимания с гиперактивностью, которая, несмотря на отсутствие ранее зарегистрированного психоза, испытывала сильное психологическое напряжение и хроническое недосыпание. В такой уязвимой обстановке ей удалось длительное время взаимодействовать с чат-ботом GPT-4, что привело к формированию ложных убеждений, связанных с цифровым «воскрешением» её покойного брата.
Сначала ИИ давал нейтральные ответы, но со временем стал подтверждать фантазии пациентки, что укрепило психологический надлом и вывело её в состояние острого психотического эпизода. Программа, по сути, выступила как «эхокамера» — повторяя и усиливая бред, что исключило необходимую коррекцию и привело к необходимости госпитализации и медикаментозного лечения.
Через несколько месяцев пациентка вновь испытала ухудшение состояния после повторного общения с другим чат-ботом — этот эпизод также был вызван комбинированным воздействием соматических и психологических факторов. Врачи подчёркивают, что в фоновых условиях таких случаев всегда присутствует совокупность рисков, включая нарушение сна, употребление стимуляторов и предрасположенность к психическим расстройствам.
Ключевым выводом исследователей является осторожность в обращении с искусственным интеллектом для лиц, склонных к «магическому мышлению» и нестабильной психике. При склонности к антропоморфизации ИИ растёт уровень доверия к его ответам, что может создавать замкнутые круги бредовых рассуждений. Авторы предлагают медицинским специалистам внедрять вопросы о взаимодействии пациентов с ИИ в стандартные методы оценки психического здоровья, так как интенсивное общение с чат-ботами может служить индикатором возможных нарушений.
В свете стремительного распространения инструментов искусственного интеллекта осознание влияния этих технологий на психику становится важнейшей задачей для здравоохранения. Отмечено, что обсуждаемые случаи не единичны — в практике психиатрических больниц растёт число пациентов, у которых фарсовое применение ИИ связано с серьёзными социальными и медицинскими последствиями.
