Как Россия и другие страны защищают детей от опасного онлайн-контента

Ужесточение правовых мер по защите детей от нежелательной и опасной информации - одна из главных мировых тенденций в регулировании интернета. Об этом говорится в исследовании аналитиков Научно-технического центра Главного радиочастотного центра (НТЦ ФГУП "ГРЧЦ").
iStock

"Во всех развитых странах сегодня ведется работа над тем, чтобы ограждать детей не только от прямо запрещенного контента, но и от контента, который формально не запрещен, но может быть вреден для несовершеннолетних, - отмечает руководитель НТЦ Александр Федотов.

В России уже введены многие правовые меры по защите детей от вредоносного контента в Сети как в отношении запрещенной к распространению информации (детская порнография, материалы об изготовлении наркотиков и др.), так и незапрещенной, но вредной (нецензурная брань, насилие, жестокость и др.)

Так, 1 февраля 2021 года вступил в силу закон, которые обязывает социальные сети своевременно выявлять и блокировать опасный контент. С 2022 года соцсети должны будут ежегодно отчитываться о результатах такой деятельности по самоконтролю.

Любой пользователь социальной сети может сообщить о найденном запрещенном контенте в Роскомнадзор. По результатам проверки противоправные материалы либо блокируются во внесудебном порядке, либо направляются уполномоченным органам для последующего обращения в суд.

Опыт других стран

В Великобритании и Ирландии обсуждают законопроекты, в соответствии с которыми онлайн-платформы обязаны контролировать не только незаконный контент, но и законный, но при этом опасный для несовершеннолетних. Платформы причисляют контент к вредоносному, если его характер и распространение "окажут значительное неблагоприятное физическое и психологическое воздействие на детей". Например, информация о самоповреждениях, суицидальный контент и даже легальная порнография. Для этого необходимо учитывать количество пользователей, которые могут столкнуться с такими материалами, и скорость их распространения.

Многие государства подчеркивают: важно развивать механизм жалоб пользователей на опасные материалы. На уровне Евросоюза обсуждается проект Закона о цифровых услугах, который обяжет поставщиков цифровых услуг (в том числе и онлайн-платформы) фильтровать незаконную и контролировать нежелательную информацию.

Уже с 2017 года в Италии родители или несовершеннолетние старше 14 лет могут потребовать от сайтов удалить вредоносные материалы в течение 48 часов. А в мае 2021 года в Индии провайдеров услуг обязали улучшить систему ручной фильтрации контента и взаимодействия с пользователями. При публикации информации категории "только для взрослых" сервис должен обеспечить проверку возраста.

С 1 июня 2021 года китайские онлайн-ресурсы могут быть заблокированы по требованию пользователей, если они содержат вредные для детей данные. В КНР для защиты несовершеннолетних от опасной сетевой информации уже действует норма закона, которая обязывает подтверждать личность пользователей в онлайн-видеоиграх. Участники младше 18 лет (или 16, или 12 лет - в зависимости от маркировки конкретной игры) не смогут играть в такие видеоигры. Верификация возраста производится с помощью государственной системы подтверждения личности пользователя.