У пациентов появились симптомы психоза после длительных переписок с чат-ботами, в том числе с ChatGPT, сказали изданию опрошенные эксперты. Например, 26-летняя американка была уверена, что с помощью чат-бота общается с умершим братом. Поскольку чат-боты на основе ИИ вошли в нашу жизнь совсем недавно, формального определения психоза, спровоцированного именно при общении с роботами, нет. Однако врачи называют характерные признаки такого расстройства:
- галлюцинации;
- рассеянное мышление или речь;
- устойчивые ложные убеждения, не имеющие широкого распространения.
Врачи предупреждают: чат-боты могут не только "закреплять" ошибочные мнения, но даже провоцировать бредовые идеи: пациенты верят, что совершили научный прорыв, стали центром правительственного заговора или были избраны Богом. Объяснение довольно простое: алгоритмы, по которым работают чат-боты, устроены таким образом, что диалог развивается в приятном для пользователя направлении - бот соглашается с мнением пользователя, поддерживает высказываемые им идеи и развивает фантазии, даже если они далеки от объективной реальности.
"Сама технология, возможно, и не вызывает бред, но человек рассказывает компьютеру о своей реальности, а компьютер принимает это за истину и отражает обратно, таким образом, он становится соучастником в возникновении заблуждения", - цитирует издание психиатра из Калифорнийского университета, доктора Кита Саката. Доктор уже оказывал помощь 15 пациентам, получившим психоз после общения с ChatGPT.
Впрочем, он не отрицает, что окончательные выводы делать преждевременно: чтобы установить связь между использованием чат-ботов и психозом, необходимы дополнительные исследования. В OpenAI, разработчике ChatGPT, изданию сообщили, что продолжают обучать чат-бот, чтобы он мог распознавать признаки психического или эмоционального расстройства и реагировать на них.
А что говорят по этому поводу российские специалисты?
Вера Никишина, профессор, директор Института клинической психологии и социальной работы Пироговского университета:
- Трудно не согласиться с данными зарубежных исследований, которые показали, что чат-боты не решают проблему выявления психических нарушений у пользователей и оказания помощи в таких случаях. Эти роботы устроены так, в них заложены такие алгоритмы, что они общаются одинаково и с человеком с нарушенной психикой, и с тем, у кого никаких отклонений нет и состояние нормативное. Но здесь должна быть кардинальная разница. И она состоит в том, что не только психическое расстройство, но и пограничное состояние или предрасположенность к нему может усугубиться при общении с чат-ботом, который своими ответами провоцирует у человека факт принятия, что у него что-то не в порядке. В результате человек может все глубже и глубже погружаться в это состояние. Чат-бот, не распознавая ненормативность состояния (так как такие функции в него просто не заложены), во время диалога как бы "подыгрывает" пользователю и погружает человека в психическое нездоровье, доводя эти проявления до максимально выраженных. И чем больше времени человек проводит в диалогах с чат-ботом, тем очевиднее нарастают симптомы.
По факту также могу сказать, что распространенность пограничных состояний увеличивается, и мотивация у людей с такими состояниями на диалог с чат-ботом, который их как будто понимает, тоже значительно больше. Значит, и активность таких людей и погружение их в эту синтетическую коммуникацию будет усиливать, может быть, на старте еще не выраженные патологические состояния, усиливать их и доводить до патологических. Так что в этом смысле много оснований для того, чтобы говорить о рисках использования ИИ-технологий людьми с нестабильной психикой.
Как минимизировать риски?
Для безопасного использования чат-ботов эксперты и исследователи советуют:
- Критическое восприятие. Нужно помнить, что ИИ не обладает сознанием, эмоциями или пониманием. Его ответы - это обработка данных, а не истина.
- Ограничение откровенности. Не стоит делиться с ботами глубоко личными, эмоциональными переживаниями и конфиденциальной информацией.
- Проверка важных советов. Любые рекомендации, касающиеся здоровья, финансов или важных жизненных решений, необходимо перепроверять по авторитетным источникам и с реальными специалистами.
- Контроль времени. Осознанно ограничивать время общения, особенно голосового, чтобы не допустить формирования зависимости.
- Особый контроль для подростков: родителям важно обсуждать с детьми использование ИИ, развивать цифровую грамотность и следить за возможными изменениями в поведении (изоляция, ухудшение настроения, необщительность).