Мы думаем, что ищем сами, а на деле - нами управляют с помощью непрозрачных алгоритмов. Такую ситуацию решено объяснить. Одно из предложений: IT-компании обяжут доступным языком объяснять, как работают алгоритмы.
"Мы сегодня не понимаем прозрачность работы рекомендательных сервисов, - сказал Антон Горелкин. - Есть опасность использования таких алгоритмах в информационных войнах".
Заявление прозвучало на пресс-брифинге, посвященном вопросам правового регулирования работы рекомендательных сервисов. По словам Антона Горелкина, точнее говорить не о правовом регулировании, а о прозрачности работы таких сервисом. "Законопроект о прозрачности работы рекомендательных сервисов готов на 99 процентов и в ближайшее время будет внесен на экспертный совет", - сказал он. Инициатива коснется прежде всего социальных сетей и видеохостингов. Интернет-магазинов проект не затрагивает, однако некоторые маркетплейсы сегодня по собственной инициативы раскрывают механизмы работы рекомендательных сервисов. Например, один из крупных российских маркетплейсов представил в ходе брифинга презентацию о работе своих рекомендательных сервисов. Представители компании заверили, что премиум-показы (то есть товары, которые демонстрируются в первую очередь) не продаются. Так что нет вероятности, что вам за деньги покажут в первую очередь дорогой некачественный товар.
В ходе брифинга прозвучали предложения также предусмотреть возможность для граждан не только отключать в соцсетях рекомендательные алгоритмы, но и жаловаться на некорректные действия искусственного интеллекта. Например, что запрещенный контент предлагается детям. Еще одно предложение: обязательно маркировать рекламную информацию. Если за продвижение какого-то поста заплачено, пользователь должен это знать.
"Механизм работы рекомендательных алгоритмов непрозрачен, что, в свою очередь, дает возможность манипулирования мнением пользователей в интересах тех или иных организаций, - сказал председатель Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Александр Журавлев - В современных в реалиях массовое применение рекомендательных алгоритмов может являться эффективным инструментом социальной инженерии, в том числе способно усугублять социальные проблемы "уязвимых" слоев населения, например, детей и подростков. Поэтому вопросом регулирования рекомендательных алгоритмов сегодня озабочены власти многих стран. Например, Китай завершил работу над новыми правилами, регулирующими применение рекомендательных алгоритмов IT-компаниями. Документ вступил в силу 1 марта этого года. Данные правила включают в себя разрешение пользователям выбирать и удалять ключевые слова, которые используются для их таргетинга, и отказываться от использования алгоритмических рекомендательных сервисов".
Также, по его мнению, было бы целесообразно предусмотреть возможность создания некого совета, который сможет разрешать споры с пользователями. А для маркетплейсов он предлагает выработать механизмы саморегулирования данной сферы. То есть договориться о каких-то простых и справедливых правилах, и их соблюдать.