Киберпреступники оценили способность чат-ботов, таких как, например, ChatGPT, работать с неполными и неструктурированными данными, программным кодом и логами. В 2023 году специалисты из Kaspersky Digital Footprint Intelligence обнаружили на хакерских форумах и специализированных телеграм-каналах почти 3000 постов с коммерческими предложениями и обсуждением методов использования подобных чат-ботов в преступных целях. Сегодня такие чат-боты в руках хакеров отлично справляются с автоматизацией атак с использованием социальной инженерии. Ими пользуются при написании фишинговых сообщений для разных целевых аудиторий и на разных языках. Работа, на которую у злоумышленников раньше уходили дни и недели, теперь выполняется за часы.
Фишинг - это разновидность интернет-мошенничества, когда злоумышленник, выдавая себя за коллегу, делового контрагента или руководителя, старается обманом получить доступ к важной информации: логинам, паролям, данным банковских карт, служебной переписке. Помимо этого, злоумышленники используют ChatGPT для написания вирусов, троянов и другого вредоносного ПО. Так, в одной из веток обсуждений на хакерском форуме после того, как преступник задал вопрос, касающийся обработки строк определенного формата, ему предоставили сгенерированный ChatGPT корректный ответ.
Еще одним способом использования ИИ в противозаконных целях стало появление альтернативных чат-ботов, таких как WormGPT, xxxGPT, WolfGPT, FraudGPT, DarkBERT и пр. Это языковые модели, рекламируются как замена ChatGPT, но работающие при этом без всяких ограничений. Большая часть таких решений может быть использована как правомерно, так и для нелегальной активности, например для написания рабочего кода вредоносных программ.
Однако если создание сложных вредоносных программ с помощью ИИ дело хотя недалекого, но будущего, то создание простых телеграм-ботов, которые предлагают пользователям быстрый заработок или выгодные инвестиционные возможности, по словам заместителя руководителя Центра практической ИБ Innostage Ксении Рысаевой, уже сегодня стало одной из самых распространенных схем использования ИИ. После того, как пользователь переводит деньги на счет бота, мошенники исчезают и средства остаются у них.
Еще одной серьезной угрозой, которую злоумышленники реализовали с помощью ИИ, стали дипфейки. В этом случае жертве отправляют голосовое сообщение в мессенджере от лица знакомого, коллеги или руководителя с просьбой перевести деньги или поделиться конфиденциальной информацией. Пока еще такие предзаписанные сообщения в половине случаев распознаются потенциальными жертвами как сгенерированные. Это происходит из-за несоответствия интонации смыслу сообщения и роботизированного звучания.
Но когда злоумышленники с помощью дипфейк-технологий и алгоритмов искусственного интеллекта научатся подделывать голоса в "прямом эфире", то их общение с жертвами станет намного более убедительным и "нас ждут феерические проблемы", считает главный эксперт "Лаборатории Касперского" Сергей Голованов.