04.09.2025 16:15
Технологии

Депутат Горелкин: Нужно развивать инструменты проверки контента на ИИ-генерацию

Текст:  Татьяна Самусенко
Российская газета - Федеральный выпуск: №200 (9739)
Крупнейшие соцсети Китая начали маркировать весь сгенерированный нейросетями контент в соответствии с новым законом. Теперь фотографии, видео и тексты сопровождаются цифровыми водяными знаками. Эксперты указывают, что такие решения могут повысить доверие пользователей к материалам в интернете.
Читать на сайте RG.RU

С 1 сентября в популярных китайских соцсетях вводится маркировка всего контента, сгенерированного нейросетями, согласно вступившему в силу закону. По новым требованиям ресурсы обязаны помечать контент как "созданный искусственным интеллектом" для борьбы с дипфейками.

Александр Безносиков, директор центра агентных систем Института Искусственного интеллекта МФТИ, указывает, что маркировка ИИ-контента в Китае выглядит вполне закономерно. Люди вошли в эпоху, когда нейросети генерируют тексты и изображения в промышленных масштабах, и обществу становится важно отличать работу человека от результата алгоритма, а такая прозрачность снижает вероятность манипуляций, появления фейков и подмены авторства, и по сути, это новая система доверия в цифровой среде, добавляет эксперт.

Исследование: 34 процента молодежи видят в искусственном интеллекте друга

"Для авторов вводится новая дисциплина: если ты не отметил генерацию, рискуешь быть заблокированным или потерять доверие аудитории. Пользователи же получают не просто ярлык, а инструмент контроля. Они могут сами решать, стоит ли доверять материалу, и сигнализировать о нарушениях. Это уже не только государственный надзор, а распределенная модерация, в которую вовлекается все сообщество", - объясняет Безносиков.

В России научной разработкой по созданию отраслевого стандарта по распознаванию ИИ-контента занимается ИСП РАН. В пресс-службе "Яндекса" рассказали, что компания поддерживает проект, а подобные универсальные технологии отрасль сможет самостоятельно использовать в интересах пользователей.

Эксперт Попов о "тайном языке" ИИ: Это результат того, как обучили нейросети

"Маркировка ИИ-контента, без сомнения, полезна. Пользователь имеет право знать, где настоящее изображение или видео, а где генерация. Но очевидно, что дипфейки, созданные для обмана людей, никто маркировать не будет и наверняка позаботится о том, чтобы очистить файл от метаданных. Поэтому делать маркировку предметом законодательного давления считаю не совсем правильным - вместо этого нужно развивать и повсеместно внедрять инструменты, которые помогут гражданам быстро и безошибочно проверить контент на ИИ-происхождение", - отмечает замглавы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.

Нейросети генерируют тексты и изображения в больших масштабах, и обществу важно отличать работу человека от работы алгоритма

Также маркировка ИИ-контента может стать вспомогательным инструментом для борьбы с дипфейками. Владимир Арлазаров, генеральный директор Smart Engines, указывает, что сегодня существует множество открытых ИИ-моделей, которые можно запускать локально и обходить централизованные правила. Поэтому маркировка - это шаг в верном направлении, но отнюдь не универсальное решение проблемы, говорит эксперт.

"Наиболее разумным подходом было бы делать маркировку сразу на нескольких уровнях. Первый уровень - "человекочитаемый", когда пользователь явно видит пометку или предупреждение о контенте, созданном с помощью нейросетей. На втором уровне маркировка может быть вшита прямо в сгенерированное изображение с помощью алгоритмов стеганографии. Это позволило бы существенно повысить надежность идентификации подобного контента", - заключает Арлазаров.

Илон Маск анонсировал создание ИИ-компании, которая может потеснить Microsoft
Нейросети Общество