Ожидается, что через пять лет рынок ИИ увеличится на 38,1%. Следовательно, вырастет риск киберинцидентов с использованием нейросетевых моделей, сказал директор компании Ideco Дмитрий Хомутов.
Эксперт прогнозирует, что увеличится число фишинговых рассылок, в первую очередь направленных на компрометацию рабочих аккаунтов. Причем распознать письма и сообщения, созданные при помощи ИИ, будет намного сложнее.
"Анализируя поведение потенциальных жертв и их привычки, ИИ сможет предсказывать действия пользователей, в дальнейшем используя эти данные для проведения атак в момент, когда цель наиболее уязвима", - объяснил собеседник.
Также станет качественнее подмена голоса или видео, поскольку алгоритмы генерации постоянно улучшаются. Кроме того, генеративный интеллект снижает порог входа в "профессию хакера" при атаках на организации. Как объяснил руководитель управления цифровой криминалистики и киберразведки Angara SOC Никита Леокумович, будущему мошеннику достаточно научиться создавать промпты (правильные запросы) к ИИ, все остальное технология реализует сама.
"Здесь следует ожидать усиление защит вредоносных программ, затруднение их обнаружения и качественное удаление следов их использования (антифорензика)", - добавил он.
К трендам 2025 года руководитель направления "Киберразведка" компании "Бастион" Константин Ларин отнес то, что ИИ станет более продвинутым в вопросах консультаций хакеров по сложным уязвимостям. Также усложнятся вредоносные программы, использующие уязвимости, которые может генерировать ИИ.
"Трудно предсказать, какие атаки с использованием ИИ будут в 2025 году, но совершенно точно можно сказать, что злоумышленники будут его использовать для совершенствования уже имеющихся схем", - заключил Леокумович.