Рынок защиты ИИ станет одним из наиболее динамичных сегментов кибербезопасности
Уязвимое положение
Эксперты отмечают, что злоумышленники все чаще используют сами ИИ-модели как канал атаки, маскируя вредоносные действия под легитимный трафик больших языковых моделей. Это резко повышает скрытность атак и снижает эффективность традиционных средств обнаружения, ориентированных на сетевые аномалии и сигнатуры.
По оценкам участников рынка, сегмент защиты ИИ будет расти опережающими темпами. Основатель и генеральный директор компании Sherpa Robotics Константин Артемьев прогнозирует ежегодный прирост порядка 40 процентов в течение ближайших трех лет.
Наиболее активно такие решения будут внедряться в финансовом секторе, государственном управлении и телекоммуникациях - в сферах, где цена ошибки особенно высока и напрямую связана с регуляторными, репутационными и социальными рисками.
Директор департамента мониторинга кибербезопасности Security Vision Николай Гончаров отмечает, что самый заметный рост начнется в отраслях, где ИИ переходит из экспериментальной стадии в базовую технологию.
"Наиболее ярко рост рынка защиты ИИ будет наблюдаться там, где данные технологии начнут переходить из экспериментальной фазы в основную, особенно где последствия их компрометации будут наиболее болезненны, - констатирует собеседник "РГ". - Например, в критических направлениях экономики, таких как промышленность и энергетика, транспорт, государственный сектор, финансы, здравоохранение, телеком и цифровые инфраструктуры. Компрометации ИИ в таких секторах способны вызвать масштабные инфраструктурные сбои, приводить к прямым финансовым и физическим потерям".
Академический руководитель программы "Информационная безопасность систем искусственного интеллекта" НИУ ВШЭ Федор Иванов подчеркивает, что в горизонте трех-пяти лет защита ИИ станет стандартной частью MLOps и DevSecOps, а использование ИИ без продуманной модели безопасности окажется невозможным в серьезных отраслях, работающих с критическими данными и процессами.
Принципиальная разница
При этом эксперты сходятся во мнении, что защита ИИ принципиально отличается от классической информационной безопасности и требует иных подходов. Руководитель по информационной безопасности ELMA Александр Яров отмечает: "Традиционные решения имеют четкую логику и структурированные правила, тогда как языковые модели (LLM) - это "черный ящик" с множеством вариантов интерпретации команд и трактовки правил. Вернее, для них как таковых правил не существует, и есть лишь цепочки вероятностей".
Федор Иванов обращает внимание, что объектом атаки становится сама ИИ-модель, а не только инфраструктура или код, а ее компрометация может приводить к скрытым и труднообнаружимым последствиям, влияющим на бизнес-логику. Николай Гончаров поясняет, что атаки на ИИ часто не оставляют привычных цифровых следов и проявляются в виде правдоподобных, но ошибочных решений, которые могут долго оставаться незамеченными. Дополнительную сложность создают дрейф и деградация моделей, из-за чего требуется постоянный мониторинг их поведения и соответствия исходным целям.
Игнорирование безопасности ИИ формирует для бизнеса целый комплекс рисков, выходящих далеко за рамки ИТ-функции. Генеральный директор Cyber Business Consulting Дмитрий Лившин считает, что особенно уязвимы компании, использующие сторонние ИИ-сервисы: при атаке на поставщика возможны утечки собственных данных и раскрытие коммерческой тайны.
Александр Яров среди ключевых угроз называет уязвимости в сгенерированном коде, утечки конфиденциальной информации и персональных данных, атаки на внутренние и внешние системы через ИИ-агентов.
Руководитель группы разработки ИИ GreenData Александр Перевалов дополняет: "Частой проблемой в корпоративной среде является отсутствие контроля за ответами ИИ-ассистентов. В лучшем случае ИИ-ассистент может дать неточный ответ, а в худшем - ответить вразрез с политикой компании или сгенерировать NSFW-тексты, что приведет к репутационным и финансовым потерям, в том числе у разработчика такого ассистента".
В итоге, как подчеркивает Федор Иванов, небезопасное использование ИИ становится системным бизнес-риском, который усиливается по мере его интеграции в ключевые управленческие и операционные процессы.
Окно возможностей
Несмотря на раннюю стадию формирования рынка, эксперты видят у российских решений по защите ИИ серьезный экспортный потенциал. Дмитрий Лившин считает, что важным продуктом может стать не только программное обеспечение, но и накопленный практический опыт защиты ИИ, востребованный в странах Азии и Африки.
Александр Яров говорит о перспективах в дружественных странах БРИКС, хотя и в ограниченном формате из-за роста цифрового суверенитета и высоких требований к доверию. Николай Гончаров, в свою очередь, отмечает, что Россия фактически стала киберполигоном, где решения тестируются в условиях реальных атак, что повышает их прикладную ценность на внешних рынках.
Интерес государства к безопасности ИИ, по оценкам экспертов, будет только усиливаться. Николай Гончаров подчеркивает, что защита ИИ все чаще рассматривается как элемент национальной безопасности, поскольку технологии встраиваются в критически важные процессы госуправления, финансы, транспорт и здравоохранение. Генеральный директор Lansecurity Николай Барков отмечает, что безопасность ИИ в стратегической инфраструктуре уже находится в приоритете, а спрос на надежные отечественные решения будет расти.
При этом Дмитрий Лившин указывает на не самую благоприятную конъюнктуру рынка. "Сейчас у значительного числа компаний просто нет бюджетов на какие-либо инвестиции в ИТ или ИБ, поэтому многие проекты откладываются на более поздний срок либо запускаются с урезанным функционалом", - подчеркнул он в разговоре с "РГ".
Тем не менее участники рынка сходятся во мнении, что по мере роста зависимости экономики и государства от ИИ разработчики решений по его защите смогут рассчитывать на гранты, участие в госпрограммах и расширение спроса со стороны госсектора и крупного бизнеса.


