27.03.2024 10:09
Технологии

Российские сервисы могут обязать маркировать ИИ-контент

Текст:  Юлия Гуреева
Российские онлайн-сервисы нуждаются в механизме пользовательской маркировки контента, созданного при помощи искусственного интеллекта (ИИ). Об этом заявил замглавы комитета Госдумы по информполитике, председатель РОЦИТ Антон Горелкин.
Читать на сайте RG.RU

"При публикации видео автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории", - написал он в своем Telegram-канале.

В качестве примера Горелкин привел YouTube: руководство видеохостинга обязало блогеров уведомлять пользователей о том, что ролики помогал создавать ИИ. В частности, это касается контента, в котором есть кадры с людьми, которые делают то, чего на самом деле не делали, или с местами и событиями, которых никогда не было.

По его словам, в России дополнительно можно производить и проверку с помощью единой платформы, к которой после ее создания в обязательном порядке подключатся все платформы, работающие с пользовательским контентом. Идею такого сервиса, цель которого - выявление информации, сгенерированной нейросетям, сейчас прорабатывает Минцифры.

Напомним, что в конце декабря 2023 года премьер-министр России Михаил Мишустин поручил министерству "обеспечить проработку" мероприятий, направленных на выявление недостоверных данных. Речь, в том числе, шла об идентификации контента, созданного с помощью технологий ИИ.

"Учитывая, что рабочие решения уже существуют, министерству стоит изучить опыт их применения, оценить эффективность, чтобы использовать какую-то из них в качестве базы для будущей государственной платформы, а не разрабатывать ее с нуля", - добавил Горелкин.

Подобные инициативы объясняются тем, что в сети растет число фейков, что, в частности, ведет к нарушению авторских прав и активизации мошенников, применяющих дипфейки. Так, по данным АНО "Диалог Регионы", в прошлом году в российском сегменте интернета было зафиксировано 4 тысячи уникальных фейков и 12 млн случаев их распространения. Более того, эксперты прогнозируют, что в текущем году количество уникальных фейков увеличится до 4,5 тысячи, а их копий - до 15 млн.

"Технически дипфейки и контент, созданный генеративными нейросетями, это разные истории. Но темпы развития ИИ сейчас таковы, что мы часто встречаемся, например, с графическим контентом, который создается нейросетью на основе образов знаменитостей, политиков и т.д. Кибермошенники используют модуляцию голоса, обучая нейросеть на записях голоса реального человека", - рассказывал ранее "РГ" глава комитета Госдумы по информполитике Александр Хинштейн.

Вместе с тем перед введением полноценного регулирования этого вопроса необходимо законодательно закрепить целых ряд специальных терминов - "искусственный интеллект", "нейросеть" и "дипфейк".

"ИИ, при стремительном распространении технологии, сегодня упоминается всего лишь в двух федеральных законах. Эту ситуацию необходимо менять, иначе мы столкнемся с серьезными затруднениями в ближайшее время. Чтобы этого не допустить, межведомственная рабочая группа, в которую вхожу и я, разрабатывает концепцию Цифрового кодекса, где будут отражены эти вопросы", - добавил Хинштейн.

Нейросети Минцифры