Японские компании и банки ограничили использование ChatGPT для своих сотрудников

Крупные японские компании и банки, в том числе SoftBank Corp, Hitachi, Mizuho Financial Group, MUFG Bank и Sumitomo Mitsui Banking начали ограничивать использование интерактивных сервисов искусственного интеллекта, таких как ChatGPT. У руководства компаний возникли опасения из-за риска утечек информации.

"Не вводите информацию позволяющую вас идентифицировать и содержащую конфиденциальные данные", - такое предупреждение получили сотрудники SoftBank в феврале 2023 года в связи с использования ChatGPT и других бизнес-приложений на базе ИИ.

Хотя корпоративные регламенты по информационной безопасности и использованию облачных сервисов, к которым относятся интеллектуальные чат-боты, в SoftBank существуют уже давно, они будут обновлены в свете повышенного внимания к теме интерактивного искусственного интеллекта. SoftBank планирует установить правила, определяющие для каких бизнес-операций можно использовать эту технологию.

Интеллектуальные чат-боты делают работу специалистов более эффективной и повышают производительность сотрудников, например при написании деловых писем или подготовки выступлений. Однако при этом возникает риск утечки конфиденциальных данных. В пользовательских соглашениях большинства интерактивных ИИ-ботов оговаривается, что в тех случаях, когда сервис используется бесплатно, пользовательские данные могут использоваться, для дообучения нейросетевых моделей. Так улучшается качество работы бота.

"В этом случае принципиально отсутствие контроля над данными после их ввода в окно чата. Любая информация из интернета, будь то блог или обзор нового продукта может быть использована чат-ботом в его ответах. Аналогично с вводом запросов: конфиденциальные данные, написанные в окне чата, могут быть использованы как обучающие данные для модели и есть вероятность что они "всплывут", если кто-то сделает соответствующий запрос", - говорит генеральный директор компании Digital Consulting Solutions Александр Скоморохин.

В этом случае основным риском является человеческий фактор: пользователи могут случайно ввести конфиденциальную информацию в ChatGPT, думая, что это безопасный канал связи. Однако, по мнению Скоморохина, есть вероятность, что к этой информации могут получить доступ третьи лица и этот риск не теоретический. "Ряд исследователей из компаний и университетов (Apple, Google, Гарвардский и Стэнфордский университеты), обнаружили, что так называемые "атаки на извлечение данных для обучения" могут успешно восстановить дословные текстовые последовательности", - отмечает руководитель Digital Consulting Solutions.

Утечка данных в том числе и персональных может привести к юридической ответственности, потере интеллектуальной собственности, ущербу репутации бренда, а в отдельных случаях к значительным штрафам.

В прошлом феврале технологическая группа Fujitsu уведомила сотрудников о юридических и этических проблемах, касающихся защиты информации в ChatGPT и других интерактивных сервисах искусственного интеллекта. Компания Hitachi также рассматривает вопрос о введении новых правил использования интерактивного ИИ и корректного использования данных. Она намерена обновить рекомендации по использованию ИИ, установленные в 2021 году.

Но самые строгие ограничения ввел японский финансовый сектор. Mizuho Financial Group, MUFG Bank и Sumitomo Mitsui Banking вообще запретили использование ChatGPT и аналогичных сервисов в своих операциях. Mizuho ввела ограничения, запрещающие сотрудникам доступ к сайту с рабочих терминалов, чтобы "предотвратить утечку информации о клиентских и финансовых операциях из-за ненадлежащего использования ChatGPT сотрудниками".

По мнению руководителя отдела перспективных технологий Positive Technologies Александры Мурзиной, это нормальная практика, так как компании и организации опасаются попадания конфиденциальных данных в сторонние сервисы.

"Поэтому необходимые для работы сервисы, компании разворачивают во внутренней инфраструктуре. Например, последнее время популярны сервисы машинного перевода - софт, позволяющий переводчикам, локализаторам, быстрее выполнять свою работу. Казалось бы, много онлайн-переводчиков, где можно скопировать и перевести текст, однако так не получится сделать с конфиденциальной документацией, финансовыми документами, договорами. Поэтому у компаний появляются внутренние регламенты, что можно использовать, а что нет", - говорит эксперт Positive Technologies .

Мурзина считает, что сегодня у бизнеса нет достоверных сведений о том, как именно сервисы умных помощников (например переводчики, генераторы картинок, ChatGPT) хранят или используют данные, которые к ним попали.

Возможно, следующим этапом развития ИИ-сервисов станет предоставление в коммерческое использование интеллектуальных чат-ботов в специальном защищенном варианте.

Так, 1 марта Open AI уже предложила на коммерческой основе новый программный интерфейс, который позволяет сторонним компаниям интегрировать ChatGPT в свои сервисы. По словам разработчиков, данные, собранные из таких сервисов, не будут использоваться для повышения производительности нейросетевой модели GPT3,5 на которой работает ChatGPT. Также Panasonic Connect, из группы компаний Panasonic Holdings, чтобы снизить риск утечки данных, заключила соглашение с Microsoft, партнером Open AI, чтобы их контент не использовался для обучения модели GPT3,5.