Безопасный ИИ: кто из чат-ботов не использует ваши данные

Каждый четвертый житель России хотя бы раз в месяц пользуется ИИ-сервисами. Эксперты считают, что при текущих темпах роста доля ежемесячной аудитории нейросетей к концу 2026 года вырастет в 2 раза и составит 50% взрослого населения страны. При этом мало кто из пользователей популярных чат-ботов изучает пользовательские соглашения и политики конфиденциальности подобных сервисов.
Что нейросети делают с нашими данными и запросами?

Такие мысли периодически возникают у каждого частного и корпоративного пользователя, загружающего в окно интерфейса нейросети приватный текстовый запрос или конфиденциальные корпоративные данные. При этом подавляющее большинство тех, кто все же решился использовать чат-боты, либо не видит в этом рисков, либо удовлетворяется заявлениями самих сервисов о том, что они "абсолютно безопасны и сохраняют полную конфиденциальность и приватность пользователей".

В связи с этим вопрос о том, как использовать ИИ безопасно, не теряя контроля над данными, как никогда актуален. Чтобы оценить потенциальные риски, "Рейтинг Рунета" провел сравнительный анализ пользовательских соглашений и политик конфиденциальности десяти популярных в РФ нейросетей, работающих с текстом. Специалисты выяснили, как сервисы работают с загружаемыми материалами, и представили результаты своего исследования "Российской газете".

Были изучены следующие аспекты:

  • возможность коммерческого использования ИИ-сервисом пользовательских данных;
  • передача данных третьим лицам;
  • возможность исключения данных пользователя из обучения нейросети;
  • наличие специальной защищенной корпоративной версии сервиса.

Так, возможность коммерческого использования пользовательских данных запрещена соглашениями ИИ-сервисов Claude, ChatGPT, Grok и Gerwin AI. В документах Gemini и DeepSeek ничего не говорится об этом аспекте. Отдельно отметим, что у Gemini нет собственного пользовательского соглашения: нейросеть работает по общим правилам Google.

Передача данных третьим лицам разрешена всеми ИИ-сервисами, за исключением "Алисы AI", где информация об этом отсутствует. При этом подобная передача данных, которую допускает большинство сервисов, - это в основном рутинная практика для обеспечения их работы. Речь идет о партнерах, предоставляющих облачную инфраструктуру (хостингах), техническую поддержку или занимающихся анонимным анализом качества ответов. Такая передача не является "продажей" данных, но расширяет круг лиц, которые могут получить к ним доступ в рамках обслуживания сервиса.

Возможность отключения использования данных пользователя для обучения нейросети оговорена у ChatGPT, Perplexity, Claude, Gemini, DeepSeek, Grok, Qwen и Gerwin AI. Защищенная корпоративная версия сервиса есть у "Алисы AI", GigaChat, ChatGPT, Perplexity, Claude, Gemini, Grok и Qwen.

По мнению коммерческого директора GreenData Сергея Лебедева, все вышеперечисленные параметры сказываются и на качестве работы ИИ-сервиса, и на его конфиденциальности, и на приватности.

"Однако важно разделять "качество ответа" и "риски". Запрет на использование данных в обучении может немного снизить персонализацию или скорость улучшений под конкретные кейсы, зато резко повышает предсказуемость в части конфиденциальности. При этом корпоративные версии ИИ-сервисов часто дают сопоставимое качество, но с более безопасной эксплуатацией. С точки зрения безопасности эти параметры критичны. Чем меньше данных уходит в обучение и чем короче цепочка передачи, тем ниже риск раскрытия чувствительной информации и тем проще выполнять требования по защите данных. Это подтверждают в том числе и профильные рекомендации по защите приложений на базе больших языковых моделей, и новые ориентиры NIST по киберпрофилю для ИИ", - рассказал "РГ" Лебедев.

Отметим, что политики конфиденциальности показывают, как нейросети используют информацию. Если у сервиса в соглашении прописана возможность использовать данные, он это точно сделает в дозволенных рамках или даже пойдет дальше. В бизнес-модели нейросетей данные - это деньги.

Как заявил руководитель продуктового направления "Рейтинга Рунета" Александр Туник: "Исследование подсказывает пользователям, какие данные можно и нельзя загружать в разные ИИ-сервисы и что делать, чтобы конфиденциальная информация не попадала в нейросети: какие инструменты использовать и какие правила устанавливать для сотрудников".

А по мнению руководителя направления киберразведки Центра противодействия киберугрозам Innostage SOC CyberART Александра Чернова, такие параметры, как возможность коммерческого использования данных, передача их третьим лицам, исключение информации из обучения и наличие корпоративной версии, показывают, кому принадлежат и куда могут быть переданы данные после ввода запроса. "В публичных версиях данные становятся частью экосистемы разработчика (например, для дообучения моделей). Если нейросеть не позволяет отключить обучение и не предлагает изолированную корпоративную версию, она уже непригодна для работы с чувствительными данными", - отмечает Чернов.

Согласно данным Microsoft, 16,3% мирового населения - или примерно 1,34 млрд человек - уже активно используют ИИ-сервисы. В корпоративной среде распространение технологий еще шире: исследование McKinsey Global Survey показывает, что 88% компаний внедрили искусственный интеллект хотя бы в одну из бизнес-функций.

Туник считает, что сегодня важно проанализировать, как российские и зарубежные нейросети обращаются с информацией, и сделать отечественные продукты максимально безопасными, чтобы не проиграть в конкуренции американским и китайским ИИ-сервисам.