Безопасный ИИ: кто из чат-ботов не использует ваши данные
Такие мысли периодически возникают у каждого частного и корпоративного пользователя, загружающего в окно интерфейса нейросети приватный текстовый запрос или конфиденциальные корпоративные данные. При этом подавляющее большинство тех, кто все же решился использовать чат-боты, либо не видит в этом рисков, либо удовлетворяется заявлениями самих сервисов о том, что они "абсолютно безопасны и сохраняют полную конфиденциальность и приватность пользователей".
В связи с этим вопрос о том, как использовать ИИ безопасно, не теряя контроля над данными, как никогда актуален. Чтобы оценить потенциальные риски, "Рейтинг Рунета" провел сравнительный анализ пользовательских соглашений и политик конфиденциальности десяти популярных в РФ нейросетей, работающих с текстом. Специалисты выяснили, как сервисы работают с загружаемыми материалами, и представили результаты своего исследования "Российской газете".
Были изучены следующие аспекты:
- возможность коммерческого использования ИИ-сервисом пользовательских данных;
- передача данных третьим лицам;
- возможность исключения данных пользователя из обучения нейросети;
- наличие специальной защищенной корпоративной версии сервиса.
Так, возможность коммерческого использования пользовательских данных запрещена соглашениями ИИ-сервисов Claude, ChatGPT, Grok и Gerwin AI. В документах Gemini и DeepSeek ничего не говорится об этом аспекте. Отдельно отметим, что у Gemini нет собственного пользовательского соглашения: нейросеть работает по общим правилам Google.
Передача данных третьим лицам разрешена всеми ИИ-сервисами, за исключением "Алисы AI", где информация об этом отсутствует. При этом подобная передача данных, которую допускает большинство сервисов, - это в основном рутинная практика для обеспечения их работы. Речь идет о партнерах, предоставляющих облачную инфраструктуру (хостингах), техническую поддержку или занимающихся анонимным анализом качества ответов. Такая передача не является "продажей" данных, но расширяет круг лиц, которые могут получить к ним доступ в рамках обслуживания сервиса.
Возможность отключения использования данных пользователя для обучения нейросети оговорена у ChatGPT, Perplexity, Claude, Gemini, DeepSeek, Grok, Qwen и Gerwin AI. Защищенная корпоративная версия сервиса есть у "Алисы AI", GigaChat, ChatGPT, Perplexity, Claude, Gemini, Grok и Qwen.
По мнению коммерческого директора GreenData Сергея Лебедева, все вышеперечисленные параметры сказываются и на качестве работы ИИ-сервиса, и на его конфиденциальности, и на приватности.
"Однако важно разделять "качество ответа" и "риски". Запрет на использование данных в обучении может немного снизить персонализацию или скорость улучшений под конкретные кейсы, зато резко повышает предсказуемость в части конфиденциальности. При этом корпоративные версии ИИ-сервисов часто дают сопоставимое качество, но с более безопасной эксплуатацией. С точки зрения безопасности эти параметры критичны. Чем меньше данных уходит в обучение и чем короче цепочка передачи, тем ниже риск раскрытия чувствительной информации и тем проще выполнять требования по защите данных. Это подтверждают в том числе и профильные рекомендации по защите приложений на базе больших языковых моделей, и новые ориентиры NIST по киберпрофилю для ИИ", - рассказал "РГ" Лебедев.
Отметим, что политики конфиденциальности показывают, как нейросети используют информацию. Если у сервиса в соглашении прописана возможность использовать данные, он это точно сделает в дозволенных рамках или даже пойдет дальше. В бизнес-модели нейросетей данные - это деньги.
Как заявил руководитель продуктового направления "Рейтинга Рунета" Александр Туник: "Исследование подсказывает пользователям, какие данные можно и нельзя загружать в разные ИИ-сервисы и что делать, чтобы конфиденциальная информация не попадала в нейросети: какие инструменты использовать и какие правила устанавливать для сотрудников".
А по мнению руководителя направления киберразведки Центра противодействия киберугрозам Innostage SOC CyberART Александра Чернова, такие параметры, как возможность коммерческого использования данных, передача их третьим лицам, исключение информации из обучения и наличие корпоративной версии, показывают, кому принадлежат и куда могут быть переданы данные после ввода запроса. "В публичных версиях данные становятся частью экосистемы разработчика (например, для дообучения моделей). Если нейросеть не позволяет отключить обучение и не предлагает изолированную корпоративную версию, она уже непригодна для работы с чувствительными данными", - отмечает Чернов.
Согласно данным Microsoft, 16,3% мирового населения - или примерно 1,34 млрд человек - уже активно используют ИИ-сервисы. В корпоративной среде распространение технологий еще шире: исследование McKinsey Global Survey показывает, что 88% компаний внедрили искусственный интеллект хотя бы в одну из бизнес-функций.
Туник считает, что сегодня важно проанализировать, как российские и зарубежные нейросети обращаются с информацией, и сделать отечественные продукты максимально безопасными, чтобы не проиграть в конкуренции американским и китайским ИИ-сервисам.

