Люди стали больше верить искусственному интеллекту, чем другим людям
Результаты исследования, проведенного швейцарским университетом, опубликованы в научном журнале Science Advances. Причем ученые использовали относительно старую нейросеть GPT-3. Компания Open AI, уже представила более совершенные нейросетевые модели GPT-3.5 и GPT-4.
Исследование проводилось среди англоязычной аудитории Великобритании, Австралии, Канады, США и Ирландии с помощью реальных постов из Twitter (заблокирован в РФ) и твитов, созданных нейросетью.
По запросу исследователей GPT-3 создала твиты, содержащие как правдивые, так и дезинформационные тезисы. Были выбраны темы, вызывающие широкую общественную дискуссию и споры в социальных сетях: вакцинация, технология 5G, COVID-19, теория эволюции и пр. Интересно, что в качестве дезинформационных сообщений ученые не просто выбирали тексты созданные GPT-3 с фактическими ошибками, а просили нейросеть сгенерировать дезинформацию в определенном ключе по заданной теме.
Также был собран набор реальных постов, написанных пользователями на те же темы, а затем респондентов попросили классифицировать, являются ли случайно выбранные синтетические твиты (написанные GPT-3) и органические твиты (написанные людьми) правдой или ложью.
Ученые измерили, насколько точно участники распознавали, содержит ли твит дезинформацию или достоверную информацию. Выяснилось, что люди лучше определяли органические ложные твиты, чем синтетические. Точно так же они чаще правильно распознавали правдивые твиты, написанные ИИ, чем правдивые твиты реальных людей.
Это означает, что дезинформационные сообщения, сгенерированные с помощью GPT-3, чаще достигли своей цели по сравнению с дезинформацией, написанной человеком. Правдивые тексты, созданные ИИ, также вызвали больше доверия, чем человеческие.
Ученые отметили, что GPT-3 составляет свои сообщения более доходчиво и понятно. Респондентам для оценки сообщений, написанных людьми, требовалось от 23 до 29 секунд и от 21 до 23 секунд для постов, созданных искусственным интеллектом.
Результаты эксперимента подтвердили тот факт, что информация, создаваемая ИИ, стала не только более эффективна для информирования и дезинформирования людей, но и достигает своей цели за меньшее время.
Также ученые установили, что респонденты не смогли определить, кем был создан тот или иной твит - искусственным интеллектом или человеком.
В качестве вывода исследователи предположили, что поскольку GPT-3 и более совершенные нейросетевые модели становятся более эффективными для передачи информации, чем человек, то в будущем может измениться и характер различных информационных кампаний - общественных, политических и коммерческих. Такую кампанию теперь можно формировать и планировать с помощью нейросети, где специалисты будут оценивать только точность соответствия созданных текстов цели информационной кампании, их убедительность и эффективность.
В таком контексте возрастает риск манипуляции общественным мнением в интернете с помощью ИИ. Различные "бот-фермы", "фабрики-троллей" использовались и раньше, но нейросетевые модели способны генерировать на несколько порядков большее количество контента, чем люди. Как показал, проведенный швейцарскими учеными эксперимент, даже не самая совершенная на сегодняшний день нейросеть GPT-3 может создавать, как правдивые, так и ложные общения, неотличные от тех, которые пишут люди. Это могут быть посты в соцсетях и блогах, комментарии, отзывы на товары и услуги и даже статьи в СМИ. Все это превращает нейросети в эффективный PR-инструмент для продвижения идей, товаров и услуг. Причем он одинаково эффективен, как и для позитивных целей, например, для повышения уровня финансовой или компьютерной грамотности населения, так и для проведения дезинформационных кампаний.
По мнению директора РАЭК Сергея Гребенникова подобное использование ИИ уже не вопрос будущего: "Это происходит прямо сейчас. По данным исследования Imperva - "2022 Bad Bot Report" в 2022 году 47,4 процента всего интернет-трафика приходилось на ботов, что на 5,1 процентных пункта больше, чем в 2021 году. Интернет-трафик, созданный людьми, упал до самого низкого уровня за восемь лет наблюдений, составив 52,6%. И если пока контент ботов реально отличить от человеческого, то по мере развития ИИ возможностей для манипуляций будет все больше".
Вместе с тем он отметил уже сейчас разрабатываются сервисы, которые определяют, кем был написан текст: человеком или ИИ, и, возможно, в будущем маркировка контента, сгенерированного ИИ, станет обязательной.
Генеральный директор коммуникационного агентства iTrend Павел Житнюк считает, что качество контента, который производят GPT-боты, стало очень высоким и зачастую созданные ими тексты превосходят возможности живых копирайтеров и уже сейчас применяются в PR и маркетинге.
"Опасность того, что они будут применяться при манипуляции повесткой и общественным мнением, конечно же есть, особенно в тех случаях, когда надо быстро создать огромное количество постов или комментариев на заданную тему, это гораздо дешевле, чем содержать "фермы троллей". С другой стороны, создавать уникальный авторский контент, например, публицистику высокого уровня, GPT-инструменты не умеют - здесь важна роль личности автора, которому доверяет аудитория. Возможно, в будущем будут "выращивать" виртуальных персонажей, лидеров мнений, которых не существует в реальности. Это еще один из сценарий для сериала "Черное зеркало", причем абсолютно реалистичный", - отмечает Житнюк.
Практически все опрошенные "РГ" эксперты уверены в том, в ближайшее время будут приняты законы, регулирующие использование ИИ. Так 13 июня 2023 года Европарламент уже проголосовал за принятие закона, который будет регулировать развитие систем искусственного интеллекта в странах ЕС и защищать от них граждан. Правительство РФ также разрабатывает закон об искусственном интеллекте. Об этом недавно заявил замглавы Министерства цифрового развития, связи и массовых коммуникаций Александр Шойтов.