08.04.2026 18:11
Происшествия

МВД разработает способы борьбы с незаконным применением ИИ

Текст:  Владислав Куликов
Российская газета - Федеральный выпуск: №76 (9912)
МВД разрабатывает технологии, которые позволят выявлять дипфейки и прочие проделки искусственного интеллекта. Новость прозвучала на научной конференции в МГИМО. Вопрос без преувеличения касается каждого.
Использование ИИ для афер может стать отягчающим обстоятельством. / Сергей Михеев
Читать на сайте RG.RU

Случай из жизни: жительницу Подмосковья Елену А. какая-то старая знакомая попросила проголосовать за дочь на конкурсе художников. Елена прошла по ссылке, кликнула и спокойно пошла заниматься своими делами. А в это время ее телефон начал рассылать голосовые сообщения всем ее знакомым: мол, помогите, срочно нужны деньги, переведи на этот счет, в долгу не останусь, Елена. И многие откликнулись на ее просьбу. Когда же откликнувшиеся обратились к Елене насчет возврата долга, выяснилось, что она никого ни о чем таком не просила.

В полиции, куда обратились потерпевшие, пришли к выводу, что голос Елены был сгенерирован искусственным интеллектом. Ведь образцы ее голоса были в ее же телефоне: кто сейчас не записывает по поводу и без оного голосовые сообщения? А для искусственного интеллекта скопировать голос и записать другой текст - не проблема.

Мошенничество с использованием искусственного интеллекта приносит в 4,5 раза больше прибыли, чем традиционные методы афер

На месте Елены не просто мог оказаться каждый, многие уже оказались. Эксперты, с которыми пообщался корреспондент "РГ", подтверждают: количество таких дел растет. Как с этим бороться? А главное - и этим вопросом сейчас задаются и юристы, и криминологи - нужно ли вводить отдельное наказание за использование искусственного интеллекта в преступных целях?

Как рассказал в ходе своего выступления на конференции заместитель начальника Следственного департамента МВД России Данил Филиппов, при расследовании преступлений, совершенных с использованием дипфейков, правоохранителям нужны конкретные цифровые доказательства, а для их установления необходимо создание четко выстроенного программного комплекса.

ИИ мягко отрегулируют

Напомним, дипфейки - это подмена лица или голоса реального человека, созданная с помощью технологий искусственного интеллекта. Нейросети способны имитировать реальный голос человека и даже создавать его изображение так, будто он сам говорит вживую.

Для мошенников такие возможности искусственного интеллекта стали настоящим подарком.

Они и сегодня без всяких дипфейков умудряются убедить человека, например, что его начальник требует передать ему данные его банковской карты. Или что его племянник попал в беду и просит деньги, чтобы выкупить его из тюрьмы. А представьте, что будет, если "племянник" и "начальник" начнут лично звонить по видеосвязи? Или просто говорить по телефону голосами, неотличимыми от настоящих?

Пару лет назад мэр города Березовский в Свердловской области Евгений Писцов сообщил, что мошенники звонят от его лица гражданам и пытаются выманить деньги. Голос градоначальника они синтезировали на компьютере. С тех пор подобные истории случались и с другими мэрами и губернаторами. Так что если вам позвонил градоначальник или сам губернатор, будьте осторожны. Попросит денег - не давайте.

Кроме того, поддельные голосовые сообщения могут рассылаться (и уже рассылаются), чтобы опорочить кого-то. Сегодня очень легко выставить человека полным мерзавцем, создав с помощью нейросети его двойника, который наговорит на десяток статей УК. Но так подставлять других - тоже преступление. А дипфейк при этом должен стать уликой.

ВС признал незаконным использование в политической агитации ИИ-фотографий

"Доказать сам факт применения поддельного видео или фото крайне сложно, - отметил Данил Филиппов. - В ходе расследования дел в большинстве случаев правоохранители ориентируются на показания жертв мошенников, однако этого недостаточно. Сейчас в МВД уже ведется работа по внедрению более системных мер по борьбе с дипфейками".

Новые технологии позволят в реальном времени анализировать миллионы изображений, видео, аудиозаписей, определяя характерные для дипфейков искажения. Так что защита жертв электронных преступлений повысится.

В свою очередь, заместитель директора Росфинмониторинга Герман Негляд, выступая на конференции, подчеркнул, что использование искусственного интеллекта в преступлениях может потребовать введения отдельных специальных составов для уголовной ответственности.

"Если говорить об уголовно-правовой реакции, то возникает много вопросов. Это либо корректировка действующих составов, то есть включение в виде отягчающего обстоятельства использование искусственного интеллекта и нейросетей, либо это введение отдельных специальных составов, которые связаны с использованием искусственного интеллекта и дипфейков", - уточнил Негляд.

Кстати, по данным Интерпола, мошенничество с использованием искусственного интеллекта приносит в 4,5 раза больше прибыли, чем традиционные методы. Герман Негляд привел в качестве примера эффективности такого вида мошенничества случай, когда финансовое ответственное лицо крупной компании после видеоконференции с "руководством" перевел злоумышленникам 25 миллионов долларов. "Новая реальность требует реагирования", - подчеркнул спикер.

Организаторами V Всероссийских академических слушаний "Уголовное право и безопасность цифрового общества: пределы криминализации деяний, связанных с искусственным интеллектом и дипфейками" выступили МГИМО и АНО "Белый Интернет".

Директор АНО "Белый Интернет", профессор МГИМО Элина Сидоренко в беседе с корреспондентом "РГ" напомнила, что в марте был опубликован проект закона "Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ", принятие которого поможет в борьбе с самыми современными киберпреступлениями. В этой связи она призвала консолидировать усилия науки, бизнеса и государства для выработки системных решений в сфере уголовно-правовой защиты от использования ИИ в преступных целях.

Между тем

В конце прошлого года Росгосстрах сообщил о появлении афер, когда с помощью искусственного интеллекта пытаются получить выплаты по ОСАГО. В Сети уже появились объявления с предложением "разбить" машину на фотографии за несколько сотен рублей. Схема проста: пересылаете фото своей машины, в ответ вам присылают серию снимков с очень правдоподобными повреждениями. Искусственный интеллект нарисует аварию реалистично. Но с такими схемами борются. А гражданин, решивший воспользоваться услугами нейросети для обмана страховой, рискует стать фигурантом уголовного дела. В перспективе же наказание за использование искусственного интеллекта в преступных целях могут ужесточить.

Елизавета Белякова рассказала о наиболее опасных для детей киберугрозах
МВД Охрана порядка