По данным MTS AI, если несколько лет назад с дипфейками сталкивались лишь 10% пользователей, то к концу этого года их доля может вырасти до 50%. Банковский сектор наиболее уязвим к рискам.
«Наиболее уязвимы к дипфейк-атакам: финансовый сектор, страхование и высокие технологии. Банки часто становятся целью мошенников, которые используют поддельные видео и аудиозаписи для имитации руководителей и проведения несанкционированных транзакций. В страховании злоумышленники подделывают документы и создают ложные заявки на возмещение. В ИT-сфере дипфейки используются для создания фальшивых профилей и кражи информации», — рассказал web-разработчик компании «Код Безопасности» Константин Горбунов.
С помощью дипфейков злоумышленники создают впечатление, что пользователь общается с реальным человеком — это дает им возможность манипулировать людьми и раскрывать личную информацию. Для борьбы с этим используются различные инструменты. Так, российский разработчик решений по распознаванию лиц и объектов на базе компьютерного зрения VisionLabs внедрил систему по обнаружению дипфейков в банки четырех стран: России, Казахстана, Кыргызстана и Узбекистана. Ожидается, что решение поможет снизить риски, связанные с цифровыми подделками и мошенничеством.
Антон Сергеев, директор центра программных разработок и цифровых сервисов МИЭМ НИУ ВШЭ, рассказал, что системы биометрической идентификации, например, вход в метро или оплата улыбкой, сильно подвержены дипфейк-атакам.
Существуют самые примитивные случаи — когда злоумышленник подходит к банкомату и входит в систему за другого человека, показав его фотографию. Также есть более сложные атаки, например, подмены пакетов в трафике, содержащих информацию, необходимую для идентификации пользователя.
«Использование дипфейков для банковских операций наиболее привлекательно для аферистов, потому что это прямой доступ к деньгам. С ростом числа систем, требующих биометрической аутентификации, мы будем массово сталкиваться с дипфейками», — объясняет Антон Сергеев.
Сергей Маклаков, начальник управления по противодействию распространению недостоверной информации АНО «Диалог Регионы», указывает, что специальное государственное регулирование в сфере распространения дипфейков пока отсутствует. Тем не менее, значительную роль играют механизмы саморегулирования и общие нормы права, касающиеся оборота информации. Так, законодательство предусматривает наказание за мошенничество, которое применимо к случаям обмана с использованием таких технологий.
«Но не стоит демонизировать технологию. Это лишь инструмент, который может стать опасным не в тех руках. В случае возможного регулирования, важно обеспечить баланс защиты законных прав, интересов граждан и создания условий для развития ИИ-отрасли, не обремененной чрезмерными барьерными ограничениями», — дополняет специалист.
Максим Бузинов, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар», отмечает, что сегодня ИИ-алгоритмы существенно упростили массовую разработку дипфейков — они снизили «порог входа», который ранее был недоступен мошенникам. Сейчас для создания искусственного аудио или видео достаточно записи продолжительностью в несколько секунд.
«Универсальных решений, которые могут определить дипфейки высокого качества за короткое время, пока нет. Ситуацию осложняют разнообразные искажения — фильтры, маски, улучшение голоса и размытие фона. Например, ПО, выявляющее фейки выдаст ложное уведомление при анализе видеосообщения, в котором человек поет под фонограмму, хотя само видео фейком может не являться», — добавляет эксперт.
Константин Горбунов, наоборот, говорит, что сегодня против дипфейков используются технологии, основанные на машинном обучении и искусственном интеллекте. Эти методы анализируют контент и выявляют аномалии, указывающие на подделку. Основной метод заключается в обучении нейронных сетей на наборах данных с подлинными и фальшивыми изображениями и видео. Системы улавливают детали, недоступные человеческому восприятию: неестественные движения или несоответствия в освещении.
По мнению Алексея Лужнова, руководителя BI.ZONE AntiFraud, чтобы быстро распознать дипфейк, нужно проверить источник информации. Также следует обратить внимание на аномалии и неестественность мимики, например рассинхронизацию звуков речи и движения губ человека на видео. Стоит более критически относиться к любому контенту. Если предложение или просьба выглядит подозрительно — например, вас просят срочно перевести куда-то деньги — это повод насторожиться и проверить поступившую информацию.