ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы

Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Об этом сообщает РИА Новости со ссылкой на пресс-службу Центрального банка РФ.
iStock

Злоумышленники, желающие обогатиться за счет доверчивых граждан, начали использовать новый прием, помогающий им выманить деньги, предупредил финансовый регулятор.

Нечистые на руку лица имитируют голоса людей, которых знает жертва, используя специальные компьютерные программы.

В то же время отмечается, что мошенники, желая запутать жертву, все чаще используют комбинированные схемы, преимущественно телефонные. За основу берется информация, которую россияне размещают в соцсетях - это данные о родственниках, друзьях, работе или досуге. Поэтому лучше скрывать от посторонних глаз личную и финансовую информацию.

Также необходимо быть осторожными при пересылке важных сведений (например, документов) с помощью мессенджеров.

Не сообщайте данные банковских карт и другую конфиденциальную информацию владельцам сомнительных сайтов. Не совершайте операции по переводу денежных средств, не выполняйте команды посторонних лиц, поступающие по телефону. Такие просьбы лучше проигнорировать.

Центробанк также рекомендует позвонить человеку, от имени которого к вам обратились мошенники, чтобы убедиться в достоверности данных.

Ранее сообщалось, что новым "помощником" хакеров стал искусственный интеллект (ИИ). С его помощью мошенники начали создавать аудиосообщения и вымогать средства.

Преступная схема следующая: сначала злоумышленник взламывает аккаунт пользователя в Telegram или WhatsApp (принадлежит корпорации Meta, которая признана экстремистской и запрещена в России) и скачивает оттуда голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги.

Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным. Можно качественно подделать тембр и интонацию человека. По словам экспертов, количество таких атак будет только расти: "не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего".