23.09.2025 15:52
Технологии

В России появится стандарт разработки моделей искусственного интеллекта

Текст:  Татьяна Самусенко
Российская газета - Федеральный выпуск: №215 (9754)
До конца этого года Федеральная служба по техническому и экспортному контролю (ФСТЭК) представит на обсуждение проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ). Документ должен учесть специфические угрозы, связанные с технологией больших данных и моделями машинного обучения. Об этом сообщил первый заместитель директора ФСТЭК России Виталий Лютиков на BIS Summit 2025.
Читать на сайте RG.RU

Сегодня ИИ активно внедряется в критически важные сферы - от государственного управления до промышленности. При этом для ИИ-систем характерны свои риски и уязвимости. Например, они могут давать ложные рекомендации или случайно передавать конфиденциальные данные.

"Разработка отдельного стандарта по безопасной разработке ИИ-систем - стратегически важный шаг для российской IT-отрасли. Отсутствие четких требований к безопасности создает риски не только для бизнеса, но и для национальной цифровой экосистемы в целом. Появление стандарта позволит задать единые правила работы и тем самым повысить доверие к отечественным разработкам", - указывает член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

Италия первой в Евросоюзе приняла закон об искусственном интеллекте

Он добавляет, что основу будущего документа, по всей видимости, составят требования к обеспечению безопасности на протяжении всего жизненного цикла ИИ-систем - от сбора и обработки данных до внедрения и эксплуатации моделей. Особое внимание будет уделено качеству и целостности датасетов: правилам их формирования, хранению, разметке и защите от несанкционированного доступа. Это необходимо, чтобы исключить возможность "отравления" данных и вмешательства в процесс обучения, указывает депутат.

Евгений Осадчук, директор направления "Искусственный интеллект" АНО "Цифровая экономика", отмечает, что обеспечение безопасности ИИ-систем требует произвести оценку рисков и создать соответствующую модель угроз. Подробному анализу должен быть подвергнут каждый этап создания ИИ-решения: проектирование, разработка, развертывание и эксплуатация. И уже применительно к каждому этапу, зная присущие ему риски и уязвимости, можно создавать некий свод правил и стандартов.

Например, на этапе проектирования необходимо учитывать источник, целостность и репрезентативность обучающих данных, обеспечить их минимизацию с позиции соблюдения норм и требований по защите персональных данных. А на этапе разработки внимание должно быть уделено методам безопасного кодирования, безопасности моделей и библиотек сторонних производителей.

"Полноценная стандартизация разработки систем искусственного интеллекта с точки зрения безопасности потребует от разработчиков стандарта пройтись по всем этапам создания ИИ-решения и предложить для каждого этапа свои отдельные правила в части формирования обучающих данных, использования сторонних моделей и библиотек, инфраструктуры и интерфейсов, формирования процессов мониторинга и процедур реагирования", - указывает Осадчук.

Искусственный интеллект стал лидером политической партии в Японии

В случае если регулирование ИИ будет создаваться на основе поддержания баланса интересов, оно может стимулировать влияние на участников индустрии. "Крупному бизнесу предсказуемость правовой среды и унификация стандартов может помочь в планировании долгосрочных инвестиций. Для развития научных исследований с перспективой практического применения важны "регуляторные песочницы" и упрощенный доступ к данным при условии сохранения защиты прав граждан", - указывает генеральный директор Института AIRI Иван Оселедец.

Азамат Жилоков, директор института искусственного интеллекта МФТИ, рассказал, что также особое внимание стоит уделить генеративным технологиям, включая большие языковые модели. Эти решения быстро внедряются в самые разные области, но пока еще не имеют четких и общепринятых правил безопасного применения.

"Важно, чтобы требования были понятными и выполнимыми, реально повышали уровень безопасности, но при этом не мешали развитию технологий. Здесь принципиально важно избежать ситуации, когда чрезмерное регулирование начинает сдерживать внедрение", - заключает эксперт.

Михаил Пиотровский рассказал, в чем главная беда искусственного интеллекта
Сервисы Нейросети Федеральная служба по техническому и экспортному контролю (ФСТЭК) Наука