Из-за уязвимости ChatGPT может выдавать данные пользователей

Чат-бот ChatGPT может выдавать случайным пользователям гигабайты конфиденциальных данных людей или организаций.

Об этом стало известно исследователям из Google DeepMind, Корнеллского университета, Университета Карнеги-Меллона, Калифорнийского университета в Беркли, Вашингтонского университета и Швейцарской высшей технической школы Цюриха. Они, "общаясь" с чат-ботом, подобрали несколько определенных запросов, которые заставили систему выдать информацию других пользователях. Результаты эксперимента опубликованы на сервере препринтов arXiv.

Так, ученые попросили ChatGPT повторять слово "стихотворение" бесконечное количество раз. Сначала робот предоставил текст, который состоял из запрашиваемого слова, однако потом раскрыл имя, фамилию и номер телефона какого-то человека. Предполагается, что из-за уязвимости чат-бот отправил информацию из обучающего массива. При этом сами разработчики утверждали, что программа основана на закрытом исходном коде, благодаря чему данные остаются защищенными.

Помимо этого, среди других данных, которые предоставил ChatGPT, были, в том числе, даты рождения, биткойн-адреса и даже откровенный контент с сайтов знакомств.

Ранее сообщалось, что Xiaomi GetApps распространяет поддельный Telegram.