В Роскачестве рассказали, как защитить свои биометрические данные от злоумышленников

Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос позвонившего знакомого или родственника. Технология известна под названием DeepFake, и хотя традиционно больше говорят о видео, но и манипуляции с голосом так же относятся к ней. Эксперты Роскачества подготовили рекомендации для пользователей, которые хотят дополнительно защитить себя и своих близких от злоумышленников.
В Роскачестве рассказали, как защитить свои биометрические данные от злоумышленников
В Роскачестве рассказали, как защитить свои биометрические данные от злоумышленников / Сергей Михеев

Для совершения подобного звонка мошенникам требуется образец голоса, который без труда можно найти в мессенджерах, где практически все пользователи отправляют голосовые сообщения. Кроме того, они используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации. А еще они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов. Качество синтезированного голоса зависит от точности и количества записанных образцов. Благодаря современным технологиям, хакерам достаточно всего 20-секундного фрагмента разговора для создания копии голоса любого человека.

“Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе”, - пояснил "РГ" Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.

Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Кроме того, звонок в неурочное время значительно сокращает возможности для проверки информации: звонить каким-то третьим лицам для проверки информации жертва скорее всего сочтет неудобным, ведь люди спят. Ну а речь обычно идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников.

Существует опасение, что мошенники запишут голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.

Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно.

Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему:

  • Не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос. Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи;
  • Помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки – стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально;
  • Спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Например, про домашних животных, общих друзей или вашу последнюю с ним встречу;
  • Стоит обратить внимание на психологические уловки: если вас торопят, пытаются запугать, дают инструкции о том, что нужно совершить какие-то операции в банкомате или сообщить коды, сразу отказывайтесь от подобного общения;
  • Если мошенник звонит с неизвестного номера и представляется странным голосом вашего знакомого, самый надежный вариант — перезвонить самому по его личному номеру телефона;
  • Защитите свои аккаунты в соцсетях и мессенджерах при помощи двухфакторной авторизации.
  • Внимательно подходите к размещению личной и финансовой информации в социальных сетях и других открытых ресурсах;
  • Никогда не пересылайте в мессенджерах и социальных сетях сведения из документов и не используйте их в качестве хранилища таких документов;
  • Не совершайте какие-либо финансовые операции по просьбе незнакомцев;
  • Соблюдайте общие антифишинговые правила: не вводите данные своего аккаунта на посторонних сайтах, старайтесь минимизировать входы через социальную сеть на сторонние сайты, не устанавливайте подозрительные приложения и регулярно проверяйте свой телефон и компьютер антивирусом.

Эксперты отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. К счастью в России уже существуют инструменты для обнаружения сгенерированного нейросетями контента, например система «Зефир», разработанная специалистами АНО «Диалог». Кроме того, активно обсуждается необходимость специальной маркировки такого контента, как это сделано, например, в Китае.