
Случай из жизни: жительницу Подмосковья Елену А. какая-то старая знакомая попросила проголосовать за дочь на конкурсе художников. Елена прошла по ссылке, кликнула и спокойно пошла заниматься своими делами. А в это время ее телефон начал рассылать голосовые сообщения всем ее знакомым: мол, помогите, срочно нужны деньги, переведи на этот счет, в долгу не останусь, Елена. И многие откликнулись на ее просьбу. Когда же откликнувшиеся обратились к Елене насчет возврата долга, выяснилось, что она никого ни о чем таком не просила.
В полиции, куда обратились потерпевшие, пришли к выводу, что голос Елены был сгенерирован искусственным интеллектом. Ведь образцы ее голоса были в ее же телефоне: кто сейчас не записывает по поводу и без оного голосовые сообщения? А для искусственного интеллекта скопировать голос и записать другой текст - не проблема.
На месте Елены не просто мог оказаться каждый, многие уже оказались. Эксперты, с которыми пообщался корреспондент "РГ", подтверждают: количество таких дел растет. Как с этим бороться? А главное - и этим вопросом сейчас задаются и юристы, и криминологи - нужно ли вводить отдельное наказание за использование искусственного интеллекта в преступных целях?
Как рассказал в ходе своего выступления на конференции заместитель начальника Следственного департамента МВД России Данил Филиппов, при расследовании преступлений, совершенных с использованием дипфейков, правоохранителям нужны конкретные цифровые доказательства, а для их установления необходимо создание четко выстроенного программного комплекса.
Напомним, дипфейки - это подмена лица или голоса реального человека, созданная с помощью технологий искусственного интеллекта. Нейросети способны имитировать реальный голос человека и даже создавать его изображение так, будто он сам говорит вживую.
Для мошенников такие возможности искусственного интеллекта стали настоящим подарком.
Они и сегодня без всяких дипфейков умудряются убедить человека, например, что его начальник требует передать ему данные его банковской карты. Или что его племянник попал в беду и просит деньги, чтобы выкупить его из тюрьмы. А представьте, что будет, если "племянник" и "начальник" начнут лично звонить по видеосвязи? Или просто говорить по телефону голосами, неотличимыми от настоящих?
Пару лет назад мэр города Березовский в Свердловской области Евгений Писцов сообщил, что мошенники звонят от его лица гражданам и пытаются выманить деньги. Голос градоначальника они синтезировали на компьютере. С тех пор подобные истории случались и с другими мэрами и губернаторами. Так что если вам позвонил градоначальник или сам губернатор, будьте осторожны. Попросит денег - не давайте.
Кроме того, поддельные голосовые сообщения могут рассылаться (и уже рассылаются), чтобы опорочить кого-то. Сегодня очень легко выставить человека полным мерзавцем, создав с помощью нейросети его двойника, который наговорит на десяток статей УК. Но так подставлять других - тоже преступление. А дипфейк при этом должен стать уликой.
"Доказать сам факт применения поддельного видео или фото крайне сложно, - отметил Данил Филиппов. - В ходе расследования дел в большинстве случаев правоохранители ориентируются на показания жертв мошенников, однако этого недостаточно. Сейчас в МВД уже ведется работа по внедрению более системных мер по борьбе с дипфейками".
Новые технологии позволят в реальном времени анализировать миллионы изображений, видео, аудиозаписей, определяя характерные для дипфейков искажения. Так что защита жертв электронных преступлений повысится.
В свою очередь, заместитель директора Росфинмониторинга Герман Негляд, выступая на конференции, подчеркнул, что использование искусственного интеллекта в преступлениях может потребовать введения отдельных специальных составов для уголовной ответственности.
"Если говорить об уголовно-правовой реакции, то возникает много вопросов. Это либо корректировка действующих составов, то есть включение в виде отягчающего обстоятельства использование искусственного интеллекта и нейросетей, либо это введение отдельных специальных составов, которые связаны с использованием искусственного интеллекта и дипфейков", - уточнил Негляд.
Кстати, по данным Интерпола, мошенничество с использованием искусственного интеллекта приносит в 4,5 раза больше прибыли, чем традиционные методы. Герман Негляд привел в качестве примера эффективности такого вида мошенничества случай, когда финансовое ответственное лицо крупной компании после видеоконференции с "руководством" перевел злоумышленникам 25 миллионов долларов. "Новая реальность требует реагирования", - подчеркнул спикер.
Организаторами V Всероссийских академических слушаний "Уголовное право и безопасность цифрового общества: пределы криминализации деяний, связанных с искусственным интеллектом и дипфейками" выступили МГИМО и АНО "Белый Интернет".
Директор АНО "Белый Интернет", профессор МГИМО Элина Сидоренко в беседе с корреспондентом "РГ" напомнила, что в марте был опубликован проект закона "Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ", принятие которого поможет в борьбе с самыми современными киберпреступлениями. В этой связи она призвала консолидировать усилия науки, бизнеса и государства для выработки системных решений в сфере уголовно-правовой защиты от использования ИИ в преступных целях.
В конце прошлого года Росгосстрах сообщил о появлении афер, когда с помощью искусственного интеллекта пытаются получить выплаты по ОСАГО. В Сети уже появились объявления с предложением "разбить" машину на фотографии за несколько сотен рублей. Схема проста: пересылаете фото своей машины, в ответ вам присылают серию снимков с очень правдоподобными повреждениями. Искусственный интеллект нарисует аварию реалистично. Но с такими схемами борются. А гражданин, решивший воспользоваться услугами нейросети для обмана страховой, рискует стать фигурантом уголовного дела. В перспективе же наказание за использование искусственного интеллекта в преступных целях могут ужесточить.