Существует несколько основных сценариев использования дипфейков, к которым обращаются злоумышленники по всему миру. Один из них - это видео для привлечения внимания к какой-либо мошеннической схеме, связанной с инвестированием. В таких случаях хакеры создают лицо известной личности. Также они могут взять фото обычного пользователя, сделать компрометирующее видео и требовать выкуп за его нераспространение или же подделать личность сотрудника компании с целью хищения денег и информации, рассказал ведущий аналитик департамента Digital Risk Protection компании F.A.С.С.T. Евгений Егоров.
Так, одна из первых громких атак с использованием этой технологии произошла в 2019 году. Тогда гендиректору британской энергетической компании поступил звонок якобы от его начальника, который попросил перевести 243 тысячи долларов. У пострадавшего не возникло сомнений, и он выполнил просьбу. Однако оказалось, что с ним связались мошенники, сгенерировавшие с помощью ИИ голос звонившего, пишет The Wall Street Journal.
В России в начале этого года у мошенников появилась новая схема. Они начали использовать голосовые сообщения, чтобы делать рассылки с просьбой одолжить денег. Злоумышленники скачивали сохраненные аудиосообщения из взломанных аккаунтов в Telegram или WhatsApp (принадлежит компании Meta, компания запрещена в РФ и признана экстремистской организацией), после чего с помощью чат-бота синтезировали новые данные с нужным им содержанием, которые затем отправляли знакомым своих жертв, сообщил Егоров.
В связи с подобными инцидентами власти разных стран стараются активно бороться с дипфейками. К примеру, Индия планирует ввести запреты в отношении технологических компаний, которые не будут бороться с распространением видео, созданных подобным образом, поскольку этот контент позволяет манипулировать общественным мнением.
"Если платформа думает, что может работать, не удаляя дипфейковые видео, то это не так. У нас есть возможность защитить наших граждан блокировкой таких платформ", - сказал индийский замминистра информационных технологий Раджив Чандрасекхар. Это заявление последовало после того, как в интернете появилась реклама азартных игр с лицом популярного спортсмена Сачина Тендулкара.
Что касается российского законодательства, то регулирование этого направления осуществляется, например, посредством Федерального закона "Об информации, информационных технологиях и о защите информации", который устанавливает ограничения на распространение ложных данных и манипуляцию общественным мнением. Кроме того, с лета 2022 года в Госдуме готовится законопроект, регулирующий использование дипфейков. Как сообщили собеседники "РГ", документ может быть внесен уже этой весной. Пауза возникла из-за отсутствия в законодательстве определения того, что же такое искусственный интеллект.
"Считаем необходимым ужесточение ответственности за распространение дипфейков под видом достоверных сообщений и имеющих потенциально высокую социальную или экономическую опасность, например, недостоверных политических и социально значимых публичных выступлений и высказываний якобы официальных должностных лиц", - заявили в Роскомнадзоре. В ведомстве подчеркнули, что также важно дать определение подобному явлению, при этом убедившись в наличии технических решений, способных оперативно и эффективно определять дипфейки.
"На данный момент существующие положения и механизмы контроля в основном направлены на борьбу с дезинформацией и нелегальным контентом в целом, а не с дипфейками в частности. Сложность в том, что развитие технологий и возможностей создания дипфейков превосходит существующие средства и методы их обнаружения и борьбы с ними", - объяснил лидер кластера "Фундаментальные сервисы" платформы "Сфера" Валерий Никаноров.