В России стали меньше доверять искусственному интеллекту: результаты исследований

Россияне стали меньше доверять искусственному интеллекту
Россияне не доверяют ИИ, но при этом активно пользуются сервисами искусственного интеллекта. Такой вывод можно сделать из результатов исследований, которые были представлены на конференции "Технологии искусственного интеллекта 2025".

Согласно данным консалтинговой компании "Яков и Партнеры", 84 % пользователей пробовали использовать ИИ, 53 % российских компаний уже эксплуатируют ИИ-сервисы, а 73 % выделили бюджеты на их внедрение. Международный рынок искусственного интеллекта тоже растет быстрыми темпами. Если в 2022 году ежегодный рост (CAGR) рынка ИИ в среднесрочной перспективе оценивался в 35-40 %, то в 2024 году прогнозы выросли до 60-85 % и, по оценке Bain Technology Report, к 2027 году он может достигнуть 1 трлн долларов.

При этом, одновременно с быстрым освоением ИИ-сервисов, растет и недоверие к нему. Эксперт Всероссийского центра изучения общественного мнения (ВЦИОМ) Ксения Таракановская привела результаты последних исследований, согласно которым 38 % россиян не доверяют технологиям ИИ. И это на 6% больше, чем в 2022 году. А среди респондентов 45-59 лет уровень недоверия к искусственному интеллекту достигает 45%.

На первый взгляд такая картина кажется парадоксальной, но это не так. Совершенно очевидно, что искусственный интеллект становится в ряд с такими технологиями, определяющими лицо современного мира, как электричество, атомная энергия, интернет и мобильная связь. Игнорировать его - значит обречь себя на технологическое отставание как на личном уровне, так и на уровне бизнеса или страны.

Неслучайно федеральный проект "Искусственный интеллект" был продлен до 2030 года, вошел в нацпроект "Экономика данных и цифровая трансформация государства" и получил соответствующее финансирование. Более того, если рассмотреть такие национальные проекты технологического лидерства, как "Средства производства и автоматизации" (включает робототехнику), "Новые материалы и химия", "Беспилотные авиационные системы", "Биоэкономика", "Новые технологии сбережения здоровья", "Развитие космической деятельности", то очевидно, что без использования ИИ реализовать их в полной мере невозможно, а значит, часть ресурсов, выделяемых на их реализацию, будет задействована и на развитие ИИ-технологий. Как рассказала директор центра компетенций "Цифровая экономика", член Совета Федерации Надежда Сурова, только на развитие промышленной робототехники и автоматизации производства в 2025 году выделено 10,6 млрд руб., в 2026 году планируется выделить 25,8 млрд, а в 2027 году - 52,5 млрд руб.

Почему же, если эффективность искусственного интеллекта является доказанной на практике, россияне, согласно данным ВЦИОМ, считают его главной "технологией будущего", а уровень их информированности об ИИ достиг 94%, то они испытывают даже большее недоверие к ИИ-технологиям, чем 3 года назад?

Ответ, возможно, кроется в цифре 94 %. После того как люди лучше узнали ИИ-сервисы, они поняли возможности этой технологии и те риски, которые она несет.

И отраслевые эксперты, и представители государства отмечают, что для того, чтобы ИИ-сервисам можно было бы доверить свою жизнь, здоровье и финансы, нужны "доверенный искусственный интеллект" и законодательные инициативы.

По словам заместителя председателя комитета Госдумы по информационной политике, информационным технологиям и связи Андрея Синцова, сегодня в РФ отсутствует законодательство в области регулирования искусственного интеллекта и нет нормативных документов, дающих определение ИИ. При этом для развития этой технологии требуется как минимум базовое определение ИИ и порядок его взаимодействия с человеком и бизнесом.

Директор Института системного программирования им. В. П. Иванникова Российской академии наук (ИСП РАН) Арутюн Аветисян уверен, что Россия должна развивать свои ИИ-технологии именно на основе "доверенного искусственного интеллекта", то есть защищенного как со стороны кибербезопасности (от атак, взломов, закладок, утечек данных), так и с социогуманитарной стороны. Для этого необходимо решить проблему честности генеративного ИИ и возможности манипуляции с его помощью общественным мнением и сознанием отдельного человека.

Национальная стратегия развития искусственного интеллекта определяет доверенные технологии искусственного интеллекта как, отвечающие стандартам безопасности, разработанные с учетом принципов объективности, недискриминации, этичности, исключающие при их использовании возможность причинения вреда человеку, нарушения его основополагающих прав и свобод, нанесения ущерба интересам общества и государства.

Аветисян рассказал о совместной разработке ИСП РАН и РАНХиГС бенчмарка (теста) для ИИ. Он называется SLAVA: Sociopolitical Landscape and Value Analysis (социально-политический ландшафт и ценностный анализ) и учитывает особенности культуры и законодательства РФ. SLAVA объединяет 14 тыс. вопросов из официальных баз, разработанных для различных государственных экзаменов и проверочных работ. Вопросы касаются таких тем, как история, обществознание, политология, география и национальная безопасность.

Глава ИСП РАН отметил, что все ведущие большие языковые модели (LLM) показали очень низкий процент верных ответов на тестовые вопросы. Самый высокий результат - 53,17 % правильных ответов показала Qwen2-72B-instruct-q4_0 китайской компании Alibaba, а самый низкий - Llama 2-13b (всего 3,7 %) от американской Meta (признана в РФ экстремистской организацией).