28.06.2024 16:42
Технологии

Алексей Гореславский: Важно предупреждать аудиторию об использовании дипфейков

Текст:  Юлия Гуреева
Если автор контента предупреждает свою аудиторию о том, что в нем используются дипфейки - реалистичные изображения или голоса, - то никакого вреда в этом нет. Однако создание дипфейков с целью обмана требует регулирования и наказания, заявил гендиректор Института развития интернета Алексей Гореславский в ходе XII Петербургского международного юридического форума.
Читать на сайте RG.RU

Когда злоумышленник пытается похитить фрагмент личности человека или ввести свою жертву в заблуждение, то на эти действия "найдется" сразу несколько статей Уголовного кодекса. Вопрос заключается в том, как лучше проводить мониторинг таких материалов, сказал Гореславский.

При этом, по его мнению, люди, а в особенности поколение Z, стали лучше распознавать фейковые или недостоверные новости. Более того, критическое мышление благодаря цифровой среде развивается уже с детства. Проблемы же с распознаванием дипфейков возникают не из-за технологического прогресса, а доверчивости пользователей.

В соцсетях деление простое: если это пародийный аккаунт, сделанный для смеха, то к нему, скорее всего, никаких вопросов не будет, а вот за сознательную кражу голоса, лица, походки - да, подчеркнул Гореславский.

Однако прекращать из-за этого развитие систем искусственного интеллекта нельзя, считает он, поскольку Россия может начать отставать от других лидеров в этой области. В частности, уже сейчас в голливудских фильмах компьютерная графика используется в 33% случаев. Там создают полностью синтезированных персонажей, которые дешевле и "неприхотливее в обслуживании", чем реальные актеры.

Депутат Антон Горелкин: Дипфейки становятся все более правдоподобными
Нейросети