По его словам, это станет следующим шагом после появления системы мониторинга аудиовизуальных материалов в режиме реального времени.
Он рассчитывает, что меры должны помочь в борьбе с мошенничеством. "Сегодня, в частности, с помощью нейросетей уже заменяются лица на видео и фото, - пояснил Хинштейн. - Дипфейки способны и угонять аккаунты, и воровать средства с банковских счетов, и - что особенно важно в текущей ситуации - становиться оружием в информационной войне".
Депутат считает, что новый вызов становится реальной угрозой, ведь даже специалистам сложно отличить достоверную картинку от ложной - поэтому компании сейчас активно ведут исследования по противостоянию дипфейкам.
"Пусть технология пока остается слишком трудозатратной для использования в мошеннических схемах, это не отменяет ее возможного негативного использования в будущем. Соответственно, нам нужно решить этот вопрос "на берегу", пока вопрос не вышел из-под контроля и не возникли риски дискредитации", - заявил парламентарий.
Как ранее писала "РГ", дипфейк - это видеоролик, в котором лицо одного человека подменяется другим при помощи алгоритмов машинного обучения. В этом слове соединены два понятия: глубокое обучение нейросетей (deep learning) и подделка (fake).
По мере совершенствования дипфейков расширялось их применение в криминальной сфере. Теперь мошенники генерируют голос для звонков по телефону и создают компрометирующие видеоролики для шантажа.