Российские сервисы могут обязать маркировать ИИ-контент
"При публикации видео автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории", - написал он в своем Telegram-канале.
В качестве примера Горелкин привел YouTube: руководство видеохостинга обязало блогеров уведомлять пользователей о том, что ролики помогал создавать ИИ. В частности, это касается контента, в котором есть кадры с людьми, которые делают то, чего на самом деле не делали, или с местами и событиями, которых никогда не было.
По его словам, в России дополнительно можно производить и проверку с помощью единой платформы, к которой после ее создания в обязательном порядке подключатся все платформы, работающие с пользовательским контентом. Идею такого сервиса, цель которого - выявление информации, сгенерированной нейросетям, сейчас прорабатывает Минцифры.
Напомним, что в конце декабря 2023 года премьер-министр России Михаил Мишустин поручил министерству "обеспечить проработку" мероприятий, направленных на выявление недостоверных данных. Речь, в том числе, шла об идентификации контента, созданного с помощью технологий ИИ.
"Учитывая, что рабочие решения уже существуют, министерству стоит изучить опыт их применения, оценить эффективность, чтобы использовать какую-то из них в качестве базы для будущей государственной платформы, а не разрабатывать ее с нуля", - добавил Горелкин.
Подобные инициативы объясняются тем, что в сети растет число фейков, что, в частности, ведет к нарушению авторских прав и активизации мошенников, применяющих дипфейки. Так, по данным АНО "Диалог Регионы", в прошлом году в российском сегменте интернета было зафиксировано 4 тысячи уникальных фейков и 12 млн случаев их распространения. Более того, эксперты прогнозируют, что в текущем году количество уникальных фейков увеличится до 4,5 тысячи, а их копий - до 15 млн.
"Технически дипфейки и контент, созданный генеративными нейросетями, это разные истории. Но темпы развития ИИ сейчас таковы, что мы часто встречаемся, например, с графическим контентом, который создается нейросетью на основе образов знаменитостей, политиков и т.д. Кибермошенники используют модуляцию голоса, обучая нейросеть на записях голоса реального человека", - рассказывал ранее "РГ" глава комитета Госдумы по информполитике Александр Хинштейн.
Вместе с тем перед введением полноценного регулирования этого вопроса необходимо законодательно закрепить целых ряд специальных терминов - "искусственный интеллект", "нейросеть" и "дипфейк".
"ИИ, при стремительном распространении технологии, сегодня упоминается всего лишь в двух федеральных законах. Эту ситуацию необходимо менять, иначе мы столкнемся с серьезными затруднениями в ближайшее время. Чтобы этого не допустить, межведомственная рабочая группа, в которую вхожу и я, разрабатывает концепцию Цифрового кодекса, где будут отражены эти вопросы", - добавил Хинштейн.