Нейросети стали чаще создавать фейковые тексты
При этом на данный момент регулярно обращаются к таким технологиям 31% россиян в возрасте от 18 до 45 лет. Более того, с мая прошлого года их доля увеличилась более чем на треть, утверждают специалисты "Яндекса".
Одновременно с этим растет и количество фейковых публикаций. Так, с мая по декабрь 2023 года количество ресурсов, которые выкладывают дезинформирующие статьи, написанные при помощи ИИ, выросло на 1 000%. За указанный период специалистами компании NewsGuard было обнаружено 614 подобных сайтов, в которых человеческой контроль минимален или отсутствует полностью.
К примеру, в прошлом году издание Futurism обвинило американский журнал Sports Illustrated в публикации материалов от имени несуществующих авторов, одним из которых был обозревателей Дрю Ортис. На сайте представили якобы его биографию и даже прикрепили фото, которое, как оказалось, оказалось сгенерировала нейросеть. Также издание подозревали в том, что оно создает контент при помощи ИИ. На это указывали нестандартные выражения: например, в одном материале говорилось, что в волейбол "может быть немного сложно попасть, особенно без настоящего мяча для тренировок".
В связи с такой тенденцией эксперты Всемирного экономического форума впервые признали фейковую информацию, созданную нейросетями, одним из основных рисков, который будет стоять перед мировым сообществом уже в ближайшее время.
"Когда объединяются две вещи - экономические трудности, с которыми сталкиваются многие люди, и рост синтетического контента в сочетании с приближением выборов, когда людям предстоит принимать решения, кто будет их возглавлять, - все это вместе может стать очень мощной смесью", - заявила управляющий директор форума Саадия Захиди.
При этом такая активная позиция отрасли, хотя и важна, однако решить проблему она вряд ли сможет. Более действенным способом является введение ответственности за использование ИИ-инструментов в преступных целях и усиление контроля за каналами передачи информации, написал в своем Telegram-канале зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.
"Джинн уже выпущен из бутылки, и справиться с ним будет невозможно без должных мер реагирования на государственном уровне, - считает депутат. - Я уверен, что рано или поздно все страны мира придут к пониманию эффективности именно такой модели".
Проблема усугубляется и тем, что в настоящее время существуют только решения, выявляющие фейковую информацию, однако программ, которые смогли бы точно определить, кто создал текст - человек или робот - нет.
Для оценки "происхождения" текста исследователь в области машинного обучения компании "Криптонит" Георгий Поляков рекомендует следовать нескольким подходам. Во-первых, необходимо делать фактчекинг - проверять опубликованную информацию и ее источники, даже если текст звучит убедительно.
Кроме того, важно обращать внимание на контекст, в частности, наличие конкретных данных, логичность представленных сведений и аргументацию автора.
Еще один признак того, что текст, вероятнее всего, создал ИИ, - это множество стилистических ошибок и несогласованностей.
"Важно понимать, что распознавание информации, созданной с помощью ИИ, является сложной для человека задачей и требует критического мышления и аналитических навыков", - подчеркнул эксперт.