Хакеры могут использовать детский контент на YouTube для создания дипфейков
Напомним, что видеохостинг ввел в отношении авторов новые правила, требующие раскрытия информации о применении нейросетей в создании видео. При загрузке ролика они должны отмечать, есть ли в нем кадры с людьми, которые делают то, чего на самом деле не делали, или с местами и событиями, которых никогда не было. Специальные ярлыки с пометкой "присутствия" в видео ИИ появятся уже в ближайшие недели.
При этом блогеры могут не раскрывать информацию, если ИИ, например, создал явно нереалистичный контент или участвовал в написании сценария. Под эти правила попадает и детский контент, среди которого могут быть не только полезные материалы, но и низкокачественные с типовыми персонажами, несообразными сюжетами и отсутствием образовательной ценности, часто публикуемые без какой-либо проверки.
"Мы требуем, чтобы создатели детского контента раскрывали контент, который существенно изменен или создан искусственно, если он кажется реалистичным. Мы не требуем раскрытия контента, который явно нереален и не вводит зрителя в заблуждение, заставляя его думать, что он реален", - уточнила представительница видеохостинга Елена Эрнандес.
Однако, как пишет Wired, такие ролики могут пройти через родительский контроль и алгоритм рекомендаций платформы - это грозит распространением сомнительного контента среди юных пользователей. Более того, YouTube - это "гигант детских развлечений", который затмевает даже Disney.
Проблема усугубляется и тем, что, согласно исследованию Pew Research Center, 53% родителей детей в возрасте 11 лет и младше говорят, что их ребенок смотрит видео на этом сервисе ежедневно, а 35% - утверждают, что они делают это несколько раз в день. Несмотря на то что существует специально детское приложение YouTube Kids, созданное на основе автоматических фильтров и отзывов пользователей, многие родители все равно продолжают пользоваться основной версией, полагаясь на яркие заставки видео и "кликбейтные" заголовки.
"Логика новых правил YouTube в том, чтобы точно сообщить человеку - перед ним не настоящая личность, а дипфейк. Действительно, для детей в этом меньше проблемы: какая разница, нарисован динозавр в мультике человеком или искусственным интеллектом?", - сказал операционный директор PR-агентства iTrend Денис Бойцов.
По его мнению защищать детей, которые пользуются этим сервисом, в первую очередь нужно не от генеративных моделей, а от живых блогеров, эксплуатирующих особенности работы детского сознания и предоставляющих низкоуровневый развлекательный контент. Причем делают они это по принципу "лишь бы больше накликали".
"Эти давно напрашивающиеся правила YouTube, увы, никогда не вводил", - подчеркнул собеседник.