15.08.2024 12:47
Происшествия

Банк России предупредил об опасной схеме мошенников с дипфейками

Текст:  Сергей Болотов
Мошенники стали чаще применять технологии реалистичного создания изображений с помощью искусственного интеллекта - так называемые дипфейки, предупредил Банк России. Чтобы создать дипфейк, злоумышленники используют фото, видео и записи голоса, которые чаще всего получают через взлом аккаунтов россиян в социальных сетях или мессенджерах.
Читать на сайте RG.RU

"Сгенерированный образ человека рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва", - рассказали в ЦБ.

Чтобы защитить себя от подобных схем, не нужно спешить переводить деньги, рекомендует Центробанк. В ответ на просьбу знакомого о финансовой помощи лучше перезвонить ему и уточнить обстоятельства. Писать текстовые сообщения не стоит - иногда для рассылки своих сообщений злоумышленники создают поддельные страницы с именем и фото человека.

"Обязательно позвоните тому, от чьего лица просят деньги, и перепроверьте информацию. Если возможности позвонить нет, то задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый. Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука - наиболее заметных признаков дипфейка", - посоветовали в ЦБ.

Эксперты после инцидента с Ларисой Долиной ждут роста дипфейк-мошенничеств
Криминал Банки