ИИ может усиливать психические расстройства, еще больше искажая восприятие реальности
В США психиатры выражают обеспокоенность рисками для психического здоровья, связанными с использованием чат-ботов на основе искусственного интеллекта. Зафиксированы множественные случаи, когда продолжительное общение с сервисами приводило к появлению симптомов психоза - бреда и галлюцинаций, пишет The Wall Street Journal.
Наибольшие риски возникают в ситуациях, когда чат-бот используется не как инструмент, а как замена реального общения или профессиональной помощи. Это касается длительных диалогов на эмоционально нагруженные темы, попыток обсуждать психическое состояние, страхи или бредовые идеи. Особенно уязвимы люди в состоянии стресса и одиночества.
Александр Попов, заведующий лабораторией нейронных систем и глубокого обучения Института искусственного интеллекта МФТИ, объясняет, что современные системы разрабатываются с ограничениями по темам и типам ответов. Используются фильтры на медицинские и психологические советы, отказ от категоричных формулировок, уход от подтверждения субъективных интерпретаций как фактов.
Во многих решениях заложены сценарии мягкого прерывания диалога и рекомендации обратиться к специалисту, если разговор уходит в зону риска. Ключевая задача нейросети - не спорить с человеком и не подыгрывать искаженной реальности, а возвращать разговор в нейтральное, прикладное русло, указывает Попов.
"Разработчик несет ответственность за архитектуру системы: ограничения, предупреждения, корректное позиционирование ИИ как инструмента, а не субъекта или "советчика по жизни". Но ИИ не может и не должен подменять врача, психолога или социальные связи. Граница проходит там, где пользователь начинает использовать технологию не по назначению. Поэтому важны прозрачные правила, корректные интерфейсы и честное объяснение возможностей и ограничений ИИ", - говорит эксперт.
При этом особенно опасными нейросетевые чат-боты могут быть для людей с уже существующими расстройствами. Примеры того, как кто-то справился с проблемой, преодолел трудную ситуацию благодаря боту, могут вдохновить и мотивировать, а с другой стороны, могут включить в "информационный пузырь".
"Основная проблема для уязвимой психики заключается в самой природе взаимодействия с чат-ботом. Это общение, лишенное критической социальной обратной связи. В диалоге с другим человеком наше искаженное убеждение, например, "меня все ненавидят", наталкивается на невербальные сигналы, вопросы или несогласие собеседника. Нейросеть же, запрограммированная на эмпатию и согласие, часто безоговорочно принимает и развивает предоставленную пользователем картину мира", - рассказала кандидат психологических наук, доцент кафедры гуманитарных и социальных наук института технологий управления РТУ МИРЭА Елена Шпагина.
Также для человека в состоянии тревоги, депрессии или с чертами паранойи это может стать мощным подтверждением его негативных установок, погружая его глубже в собственную болезненную реальность.
Она добавляет, что в механизме зацикливания мыслей вступает в силу механизм "алгоритмического усиления". ИИ работает по принципу предсказания следующей наиболее вероятной и релевантной фразы, основываясь на полученном запросе. Если пользователь задает тон диалогу, полному подозрений или навязчивых идей, бот будет продолжать эту линию, предлагая все новые детали и интерпретации.
Это создает иллюзию глубокого, понимающего разговора, но по сути является зеркалом, которое лишь многократно отражает и усиливает исходные, часто болезненные, мысли пользователя, не предлагая здорового отстранения или альтернативной перспективы.
"Если вы находитесь в состоянии психологического кризиса или проходите лечение от психического расстройства, любые эксперименты с ИИ должны быть обязательно обсуждены с вашим лечащим врачом или психотерапевтом. Технологии - мощный инструмент, но их применение в сфере психического здоровья требует крайней осторожности, этической регуляции и прежде всего понимания, что они дополняют, но не заменяют человеческое участие и профессиональную помощь", - заключает Шпагина.

