Сегодня ИИ активно внедряется в критически важные сферы - от государственного управления до промышленности. При этом для ИИ-систем характерны свои риски и уязвимости. Например, они могут давать ложные рекомендации или случайно передавать конфиденциальные данные.
"Разработка отдельного стандарта по безопасной разработке ИИ-систем - стратегически важный шаг для российской IT-отрасли. Отсутствие четких требований к безопасности создает риски не только для бизнеса, но и для национальной цифровой экосистемы в целом. Появление стандарта позволит задать единые правила работы и тем самым повысить доверие к отечественным разработкам", - указывает член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
Он добавляет, что основу будущего документа, по всей видимости, составят требования к обеспечению безопасности на протяжении всего жизненного цикла ИИ-систем - от сбора и обработки данных до внедрения и эксплуатации моделей. Особое внимание будет уделено качеству и целостности датасетов: правилам их формирования, хранению, разметке и защите от несанкционированного доступа. Это необходимо, чтобы исключить возможность "отравления" данных и вмешательства в процесс обучения, указывает депутат.
Евгений Осадчук, директор направления "Искусственный интеллект" АНО "Цифровая экономика", отмечает, что обеспечение безопасности ИИ-систем требует произвести оценку рисков и создать соответствующую модель угроз. Подробному анализу должен быть подвергнут каждый этап создания ИИ-решения: проектирование, разработка, развертывание и эксплуатация. И уже применительно к каждому этапу, зная присущие ему риски и уязвимости, можно создавать некий свод правил и стандартов.
Например, на этапе проектирования необходимо учитывать источник, целостность и репрезентативность обучающих данных, обеспечить их минимизацию с позиции соблюдения норм и требований по защите персональных данных. А на этапе разработки внимание должно быть уделено методам безопасного кодирования, безопасности моделей и библиотек сторонних производителей.
"Полноценная стандартизация разработки систем искусственного интеллекта с точки зрения безопасности потребует от разработчиков стандарта пройтись по всем этапам создания ИИ-решения и предложить для каждого этапа свои отдельные правила в части формирования обучающих данных, использования сторонних моделей и библиотек, инфраструктуры и интерфейсов, формирования процессов мониторинга и процедур реагирования", - указывает Осадчук.
В случае если регулирование ИИ будет создаваться на основе поддержания баланса интересов, оно может стимулировать влияние на участников индустрии. "Крупному бизнесу предсказуемость правовой среды и унификация стандартов может помочь в планировании долгосрочных инвестиций. Для развития научных исследований с перспективой практического применения важны "регуляторные песочницы" и упрощенный доступ к данным при условии сохранения защиты прав граждан", - указывает генеральный директор Института AIRI Иван Оселедец.
Азамат Жилоков, директор института искусственного интеллекта МФТИ, рассказал, что также особое внимание стоит уделить генеративным технологиям, включая большие языковые модели. Эти решения быстро внедряются в самые разные области, но пока еще не имеют четких и общепринятых правил безопасного применения.
"Важно, чтобы требования были понятными и выполнимыми, реально повышали уровень безопасности, но при этом не мешали развитию технологий. Здесь принципиально важно избежать ситуации, когда чрезмерное регулирование начинает сдерживать внедрение", - заключает эксперт.