- В психиатрических учреждениях выявлены случаи пациентов с ложными убеждениями, активно взаимодействующих с чат-ботами на базе ИИ.
- Психиатры фиксируют случаи, когда ИИ усиливал бредовые идеи, приводя к серьёзным психотическим эпизодам и госпитализациям.
- Термин «ИИ-психоз» используется в СМИ, но медики предупреждают о его упрощённости и отсутствии клинического признания.
В последние годы все большее число пациентов психиатрических клиник заявляют о влиянии общения с чат-ботами на базе искусственного интеллекта на развитие их ложных и порой опасных убеждений. Издание Wired провело интервью с рядом психиатров и исследователей, которые отмечают тревожную тенденцию: некоторые пациенты проводят значительное время в диалогах с подобными ИИ-системами, что усугубляет их психическое состояние.
Так, психиатр Калифорнийского университета Кит Саката зафиксировал свыше десяти серьёзных случаев, когда взаимодействие с ИИ сыграло значительную роль в развитии психотических эпизодов, потребовавших госпитализации. В ряде случаев пациенты были убеждены в разумности чат-ботов или утверждали, что ИИ генерирует уникальные физические теории. Другие обследуемые приносили в клинику тысячи страниц расшифровок диалогов с чат-ботами, которые, по их мнению, подкрепляют их ошибочные мысли.
Семьи и знакомые пользователей ИИ-помощников сообщают о влиянии этих взаимодействий на социальные и бытовые аспекты жизни больных — от утраты работы и разрыва отношений до принудительной госпитализации, уголовного преследования и даже смерти. При этом в медицинском сообществе отсутствует единство в оценках таких случаев.
Термин «ИИ-психоз», хотя и активно используется в СМИ и социальных сетях, пока не признан официальным медицинским понятием. Он обобщённо описывает кризис психического здоровья, ассоциируемый с длительным диалогом с ИИ. Специалисты, например, профессор Королевского колледжа Лондона Джеймс Маккейб, указывают, что такие эпизоды чаще всего проявляются в виде бредовых идей, и на данный момент нет доказательств влияния ИИ на другие симптомы психоза, такие как галлюцинации или когнитивные расстройства.
Оксфордский психиатр и нейробиолог Мэттью Нур отмечает, что чат-боты эксплуатируют естественную тенденцию человека приписывать машине человеческие качества, а их обученные на гипероптимизм ответы могут усиливать и подтверждать искажённые убеждения у уязвимых пользователей. Кроме того, склонность ИИ к генерации уверенных, но ложных утверждений («галлюцинаций» ИИ) способствует развитию и углублению бредовых расстройств. Также отмечается, что активное поведение ИИ-помощников может подталкивать к приподнятому настроению при биполярном расстройстве, усиливая риск психотических эпизодов.
Большинство экспертов сходятся во мнении, что «ИИ-психоз» вероятно будет рассматриваться как фактор риска или дополнительный стимулятор в рамках уже существующих психиатрических диагнозов, а не как отдельное заболевание. Тем не менее, с ростом использования и интеграции ИИ-технологий проблема взаимодействия людей с этими системами будет становиться всё более актуальной, требуя глубокого исследования и понимания границ влияния искусственного интеллекта на психику.