Боты-психотерапевты могут похищать личные данные
С точки зрения информационной безопасности, существует две основные опасности, которые создает общение с ботом на личные темы. Во-первых, это потенциальная утечка информации - такие инциденты уже случались. Во-вторых, любые данные, которыми человек делится с популярным ботом, хранятся на серверах его разработчика. Они могут воспользоваться ими в соответствии с политикой компании, например, для обучения нейросетей, сказал руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов.
Если же человек пользуется неофициальным клиентом чат-бота, то он может столкнуться с онлайн-мошенничеством. Также известные случаи, когда хакеры похищали аккаунты от сервисов с чат-ботами для того, чтобы потом продать их на теневых площадках.
"В таком случае вся история переписок на чувствительные темы может оказаться в чужих руках", - добавил собеседник.
По этой причине, считает он, при общении с искусственным интеллектом (ИИ) по чувствительным вопросам - медицине, финансам, юриспруденции и т.д. - нужно быть крайне осторожным: правильно интерпретировать их ответы и всегда консультироваться со специалистом. В частности, это касается психологических тем, в которых технология пока не способа учитывать индивидуальные нюансы психики человека и может даже навредить. Также в аккаунтах таких сервисов необходимо использовать двухфакторную аутентификацию и надежные пароли.
Вместе с тем ИИ повсеместно применяется в медицинской сфере, включая психотерапию. На рынке даже есть системы, которые могут определить эмоциональное состояние пациента и выявить определенные психические расстройства, рассказала младший научный сотрудник лаборатории "Сильный ИИ в медицине" Института AIRI Екатерина Кузьмина.
По ее словам, чат-боты являются полезным дополнением для тех, кто нуждается в краткосрочной поддержке или совете между сеансами с реальным специалистом. К примеру, при когнитивно-поведенческой терапии, представляющей каждодневную работу над собой, ИИ-трекер мог бы напоминать о заданиях или контролировать выполнение практик. Также они делают психотерапевтическую помощь более доступной, в особенности для жителей удаленных регионов или людей с ограниченными возможностями.
"Их принципиальное преимущество, по сравнению с "живым" специалистом, - доступность в любое время", - добавила психолог, специалист психологической платформы Alter, эксперт по цифровым сервисам в области ментального здоровья Маргарита Спасская.
И все же для полноценного лечения и постановки диагноза по-прежнему требуется квалифицированный специалист, так как основная проблема нейросетей заключается в том, что они допускают ошибки или "галлюцинируют", а их подход основывается на алгоритмах и данных, что ограничивает глубину и точность терапевтического вмешательства, отметила собеседница.
Кроме того, важную роль здесь играют человеческие качества: эмпатия, доверие, построение взаимоотношений между пациентом и врачом.
"Психика человека - это сложная, многогранная система, которая не может быть полностью охвачена или структурирована нейросетью", - подчеркнула Кузьмина.
Что касается будущего роботов-психотерапевтов, то они будут становиться все более сложными и адаптивными, полагает эксперт. Вероятно, они станут лучше распознавать эмоциональные состояния, эффективнее поддерживать пациентов в рамках ограниченных задач, предлагать более точные рекомендации и предоставлять первичные консультации, но их роль все равно останется вспомогательной.
"Больше пользы принесут рекомендательные системы на основе технологий ИИ, которые позволят эффективнее выбирать врачей, ведь подобрать своего психотерапевта - та еще задачка, и порой поиски занимают не один месяц", - заключила собеседница.
Причем вопрос безопасности чат-ботов встает не первый раз. Ранее на Amazon можно было найти книги с правилами сбора грибов, написанные ChatGPT. Одну из них купила семья из Великобритании и, последовав советам, оказалась в больнице.
Руководитель департамента расследований T.Hunter, эксперт рынка НТИ SafeNet Игорь Бедеров рассказывал "РГ", что работа нейросети - это результат ее общения с огромным числом пользователей, а потому она обладает большим объемом разрозненной и непроверенной информации.
"На данный момент нам предстоит научиться либо самим отделять достоверный текст от недостоверного, основываясь на своем жизненном опыте, либо мы придем к разметке контента, созданного с помощью ИИ и без него", - отметил он.