21.01.2024 18:01
Технологии

Поддельные лица и голоса. Как нас обманывают с помощью дипфейков

Текст:  Юлия Гуреева
Российская газета - Федеральный выпуск: №12 (9254)
Первые дипфейки - поддельные видео, аудио и изображения, созданные искусственным интеллектом (ИИ), появились только в 2017 году, однако уже успели набрать большую популярность и вместе с этим создать множество рисков для общества. Так, по данным исследования американской компании Pindrop, занимающейся информационной безопасностью, более половины пользователей Сети выражают большую обеспокоенность будущим развитием этой технологии. Во всем мире все внимательнее относятся к регулированию этой сферы, не отстает и Россия. Значительная часть опасений пользователей связана с тем, что дипфейки могут фальсифицировать их личность, что повлечет негативные последствия: например, кражу денег.
Дипфейки могут фальсифицировать личности реальных людей. / iStock
Читать на сайте RG.RU

Существует несколько основных сценариев использования дипфейков, к которым обращаются злоумышленники по всему миру. Один из них - это видео для привлечения внимания к какой-либо мошеннической схеме, связанной с инвестированием. В таких случаях хакеры создают лицо известной личности. Также они могут взять фото обычного пользователя, сделать компрометирующее видео и требовать выкуп за его нераспространение или же подделать личность сотрудника компании с целью хищения денег и информации, рассказал ведущий аналитик департамента Digital Risk Protection компании F.A.С.С.T. Евгений Егоров.

Так, одна из первых громких атак с использованием этой технологии произошла в 2019 году. Тогда гендиректору британской энергетической компании поступил звонок якобы от его начальника, который попросил перевести 243 тысячи долларов. У пострадавшего не возникло сомнений, и он выполнил просьбу. Однако оказалось, что с ним связались мошенники, сгенерировавшие с помощью ИИ голос звонившего, пишет The Wall Street Journal.

243 тысячи долларов попытались украсть у директора британской энергетической компании с помощью дипфейка

В России в начале этого года у мошенников появилась новая схема. Они начали использовать голосовые сообщения, чтобы делать рассылки с просьбой одолжить денег. Злоумышленники скачивали сохраненные аудиосообщения из взломанных аккаунтов в Telegram или WhatsApp (принадлежит компании Meta, компания запрещена в РФ и признана экстремистской организацией), после чего с помощью чат-бота синтезировали новые данные с нужным им содержанием, которые затем отправляли знакомым своих жертв, сообщил Егоров.

В связи с подобными инцидентами власти разных стран стараются активно бороться с дипфейками. К примеру, Индия планирует ввести запреты в отношении технологических компаний, которые не будут бороться с распространением видео, созданных подобным образом, поскольку этот контент позволяет манипулировать общественным мнением.

"Если платформа думает, что может работать, не удаляя дипфейковые видео, то это не так. У нас есть возможность защитить наших граждан блокировкой таких платформ", - сказал индийский замминистра информационных технологий Раджив Чандрасекхар. Это заявление последовало после того, как в интернете появилась реклама азартных игр с лицом популярного спортсмена Сачина Тендулкара.

Роскомнадзор разработал меры, которые повысят защищенность Рунета

Что касается российского законодательства, то регулирование этого направления осуществляется, например, посредством Федерального закона "Об информации, информационных технологиях и о защите информации", который устанавливает ограничения на распространение ложных данных и манипуляцию общественным мнением. Кроме того, с лета 2022 года в Госдуме готовится законопроект, регулирующий использование дипфейков. Как сообщили собеседники "РГ", документ может быть внесен уже этой весной. Пауза возникла из-за отсутствия в законодательстве определения того, что же такое искусственный интеллект.

"Считаем необходимым ужесточение ответственности за распространение дипфейков под видом достоверных сообщений и имеющих потенциально высокую социальную или экономическую опасность, например, недостоверных политических и социально значимых публичных выступлений и высказываний якобы официальных должностных лиц", - заявили в Роскомнадзоре. В ведомстве подчеркнули, что также важно дать определение подобному явлению, при этом убедившись в наличии технических решений, способных оперативно и эффективно определять дипфейки.

"На данный момент существующие положения и механизмы контроля в основном направлены на борьбу с дезинформацией и нелегальным контентом в целом, а не с дипфейками в частности. Сложность в том, что развитие технологий и возможностей создания дипфейков превосходит существующие средства и методы их обнаружения и борьбы с ними", - объяснил лидер кластера "Фундаментальные сервисы" платформы "Сфера" Валерий Никаноров.

Нейросети Госдума Роскомнадзор