Попытка разобраться натолкнулась на ответ о том, что продукция нейросетей авторским правом не регулируется. Однако суд расставил точки над "i". Точнее, над правом пользоваться искусственным интеллектом (ИИ): "Доводы ответчика отклоняются судом, поскольку технология deepfake - это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания". И приговорил интеллектуальных браконьеров к штрафу в 500 тыс. рублей.
Дипфейк ищет "героя"
Почему до судов не доходят уже тысячи дел, когда телефонные мошенники, подделывая голоса родных, звонят жертвам и выманивают у них деньги, а то и принуждают брать кредиты? Еще вчера сценарий мошенничества был голосовым: "Мама, я сбил человека, нужно 5 тыс. евро". Сегодня технологии нейросети изощреннее. Есть случаи, когда с помощью видеодипфейков завистники пытались уволить с работы конкурента. Или бывший муж подставил лицо бывшей жены в порноролик и вымогал у нее деньги. Дипфейки эволюционировали настолько, что стать их "героем" проще, чем кажется.
- Уровень создания дипфейков таков, что идет социальное профилирование жертв, - говорит координатор Центра безопасного интернета Урван Парфентьев. - Или создание профиля личности, на которую направлена атака. Данные кибермошенниками берутся из соцсетей, персональных данных или из украденных документов - банковских, медкарт или водительских удостоверений. Так создается реалистичный профиль жертвы - с интересами, слабостями, чертами характера, который и используется для манипулирования.
Глаза и зубы спасут
Пока самые распространенные примеры видеошантажа - дипфейк-порно, а голосовые - вымогательство денег - остаются без исков в суд от пострадавших. Хотя в первом случае "режиссеров" легко осудить за изготовление и оборот порнографических материалов, во втором - сложнее, но реально - за мошенничество и вымогательство. Причины, по которым не обращаются за помощью пострадавшие, как считают эксперты "Лаборатории Касперского" и РОЦИТ, схожие - стыд, страх и ловушка цифрового следа.
Поэтому первое, что рекомендуют эксперты, - нигде не оставлять свои персональные данные, особенно в соцсетях. Ведь чем меньше материалов, тем сложнее создать дипфейк. А цифровая подделка низкого качества сразу бросится в глаза. По данным "Лаборатории Касперского", самыми уязвимыми в дипфейках остаются глаза и зубы. Бликов в глазах или нет, или они тусклые. А зубы или плохо прорисованы, или выглядят как белая пустота.
Отсюда второй совет - не паниковать. Паникер поддается на провокацию и начинает оправдываться в чатах, форумах и соцсетях в том, чего он не совершал. Но поздно: хайп, сотворенный и своими руками, оборачивается вирусным распространением дипфейка. Поэтому третий совет экспертизы неумолим. Он комплексный. Сначала надо заняться собственной цифровой гигиеной - собрать все доступные доказательства (фото, видео, документы, показания свидетелей) того, что на видео изображен кто-то другой. Потом обращаться в службу поддержки платформы, разместившей дипфейк, параллельно на горячую линию НКО, которые помогают со сбором доказательств, например, в Центр безопасного интернета, "Лабораторию Касперского" или РОЦИТ. Потом - с иском в суд. При этом администрация ресурсов при посредничестве НКО удалит ролики и заблокирует аккаунты пользователей, с которых они были опубликованы. Юристы помогут с составлением иска о защите чести и достоинства.
"Товарищ майор", вы товарищ?
То есть способы защиты от цифрового шантажа есть. Но чтобы ими воспользоваться, нужны цифровая грамотность и понимание того, что создание дипфейка не является незаконным деянием. Эта технология успешно служит науке и культуре. Другое дело, если плагиат, шантаж или вымогательство подпадают под уголовные преступления, тогда стоит сразу обращаться в полицию. Или, например, если частные фото или видео оказались в Сети без персонального согласия и эти материалы ранее не были опубликованы, это считается нарушением неприкосновенности частной жизни, что преследуется законом.
- Думаю, общество все же придет к дипфейковым ограничениям, - считает Урван Парфентьев. - Другое дело, что они не будут работать односторонне - только через законодательство. Все же в эпоху цифры без информационной грамотности и гигиены не обойтись. Все данные надо проверять, личными данными не сорить, а инструментами правовой цифровой защиты - уметь пользоваться.
Как пример, эксперты приводят долгожданного помощника - разработанную в России нейросеть "Товарищ майор". Она умеет исследовать сообщества в мессенджере и определять администраторов, владельцев пабликов, включая нелегалов и создателей самопальных дипфейков. Но мало того, что она пока не внедрена в практику и проходит тестирование, так ее еще надо осилить пользователю. Уметь пользоваться нейросетью "Товарищ майор" - это примерно то же самое, что уметь пользоваться законом. Так, в российском праве уже есть нормы преследования создателей дипфейков - статья 159 УК ("Мошенничество") и статья 152 ГК ("Защита чести, достоинства и деловой репутации"). К ним примыкает закон о защите персональных данных. Вот только судебной практики нет. Боятся люди.
Что такое дипфейк
Дипфейк (англ. deepfake от deep learning - "глубинное обучение", fake - "подделка") - наукоемкая методика синтеза изображения или голоса, основанная на искусственном интеллекте (ИИ). Есть аудио- (голосовой) дипфейк, есть видеодипфейк. Используется в науке, кинематографе, рекламе, в музейном, мультипликационном пространстве и иных сферах.