28.02.2024 10:16
    Поделиться

    Финансовые мошенники освоили технологию дипфейк

    Еще осенью мошенники писали сообщения в мессенджерах подчиненным от имени начальства, а теперь звонят с подменой голоса. Технология моделирования звука с помощью искусственного интеллекта (ИИ) называется дипвойс или дипфейк (от англ. deep learning (глубинное обучение) + fake (подделка).

    Когда-то ее придумали для кино, в частности, этот прием использован в голливудском фильме "Гладиатор" и российских сериалах "Эпидемия" и "Диверсант". Позже дипфейки освоили создатели рекламы: все помнят ролики оператора связи с Брюсом Уиллисом? Преимущество сконструированных ИИ героев - они не просят большие гонорары и не устают. Но то, что начиналось как безобидная шутка, рискует превратиться в средство грандиозного обмана.

    Киберпреступники взламывают аккаунт жертвы в мессенджере и изучают переписку со знакомыми и коллегами. Если вы любите общаться голосовыми сообщениями или записывать ролики, учтите: вашу привычку могут использовать со злым умыслом. Сгенерировав с помощью нейросети изображение или аудио, мошенники вступают в диалог. Сразу о деньгах речь не заводят, сначала втираются в доверие, конечная цель прежняя - выудить конфиденциальную информацию, чтобы получить доступ к логинам, паролям, данным банковских карт, служебной переписке.

    Наиболее крупный ущерб от дипфейка - 35 миллионов долларов. Ограбили банк в ОАЭ. Звонивший представился клиентом - директором компании и рассказал о заключении масштабной сделки, поэтому необходимо перевести деньги на "новые" счета. Ассоциация развития финансовой грамотности (АРФГ) получает сигналы об использовании дипфейков и в России. Так, в Нижнем Новгороде бухгалтеру фирмы позвонила на мобильный якобы ее директор - голос был максимально похож, скопировали даже интонации. Попросила взять наличные из сейфа и отправить ей с курьером. И только после того, как гонец уехал, выяснилось: действуют аферисты.

    - Использование видео и голосовых слепков пока не носит массовый характер, так как требует больших ресурсов для подготовки, но уже завтра способно стать серьезным вызовом, - считает гендиректор АРФГ Вениамин Каганов.

    По словам специалиста по информбезопасности Алексея Дрозда, известны две технологии получения дипфейков. Клонирование - когда берут, допустим, голос поп-певца или актера, вкладывают ему в уста текст собственного сочинения, и вот уже любимец публики приглашает на криптобиржу. Второй вариант - синтез: нейросеть полностью генерирует виртуальную личность или событие. К примеру, по одному фото реального города после урагана создают копии и открывают благотворительный сбор.

    В России пока массово плодят дешевые дипфейки, последняя волна - фраза "я попал в ДТП", но голосом реального знакомого. Это не живой диалог, а вброс. Кроме того, встречается схема Pig Butchering: сначала жертву "откармливают", как хрюшку, обещанием больших и легких денег, потом грабят. В частности, преступники прикидываются PR-агентством, нанимающим пользователей в интернете для продвижения товаров и услуг. Ставишь лайки и получаешь деньги. Постепенно объем работы увеличивается, и человек понимает: физически налайкать столько за короткий промежуток времени он не в состоянии, поэтому надо "продлить период", а эта услуга уже платная.

    Если изображения еще не идеальны, то на приманку голосом люди попадаются. Аферисты берут за основу данные из открытых источников, соцсетей и потом либо привлекают пародистов, тюнингуют, подкручивают тембр, либо накладывают фон - мол, звонящий в аэропорту, на трассе и т. п. Как уверяют эксперты, не за горами появление ПО, которое будет автоматически отсекать на входе контент, сгенерированный ИИ (отчет в кабинет министров минцифры должно предоставить к 19 марта). А пока советуют стирать голосовые сообщения из чатов после прослушивания или поставить опцию автоудаления.

    - Голосовой фишинг зиждется на внезапности - от вас требуют что-то быстро сделать, чтобы отключить критичность мышления, вызвать эмоциональную реакцию, - поясняет Алексей Дрозд. - Главный совет - не совершать никаких действий на основе голосового сообщения, прослушанного на бегу, особенно когда звучат просьбы о деньгах.

    Как отличить дипфейк

    • Шум. Вас должно насторожить плохое качество звука, "цикличный" шум, одинаковые звуковые эффекты, например, порыв ветра, отъезжающая машина, лай собаки.

    • Интонации. Неестественная монотонность голоса, повторяющиеся всхлипывания.

    • Произношение. Неразборчивая речь или акцент часто возникает при обработке голоса с помощью нейросети.

    • Стиль речи и речевые ошибки. Пока мошенники озабочены лишь звукоподражанием, даже отсутствие слов-паразитов, характерных для конкретного человека, может указывать на дипфейк.