ИИ в операции против Ирана
С первых дней операции, начавшейся 28 февраля, масштабы применения высокотехнологичных средств поражения показали весь потенциал ИИ. Только за первые сутки были атакованы около тысячи целей. В течение нескольких дней в результате точечных ударов были ликвидированы ключевые фигуры иранского военно-политического руководства, включая Верховного лидера страны Али Хаменеи. До того, как израильские самолеты выпустили баллистические ракеты, "Моссад" использовал ИИ для мониторинга взломанных дорожных камер и перехвата сообщений.
Как признал глава Центрального командования США адмирал Брэд Купер, столь высокая интенсивность и точность операций стали возможны благодаря внедрению современных систем искусственного интеллекта. "Человек всегда принимает окончательное решение - наносить удар или нет, однако передовые инструменты искусственного интеллекта могут превратить процессы, которые раньше занимали часы, а иногда и дни, в секунды", - отметил он. Это заявление дало представление о том, как ИИ используется в современной войне.
Речь идет прежде всего о так называемом "сокращении цепочки убийств" - последовательности действий от разведки и анализа данных до выбора цели и нанесения удара. Именно здесь ИИ оказался наиболее востребован. Современные системы, подобные разработкам компаний Palantir Technologies и Anthropic, позволяют обрабатывать колоссальные массивы информации: спутниковые снимки, перехваченные сообщения, данные с датчиков. Затем они выдают военным готовые рекомендации.
Сообщается, что американские военные использовали интеллектуальную систему Maven, созданную по технологиям Palantir и Anthropic, во время своих операций в Иране. Кроме того, по данным The Wall Street Journal, Maven также использовалась Пентагоном для захвата президента Венесуэлы Николаса Мадуро.
Больше не гражданский инструмент
Столь бурное внедрение новых технологий сопровождается не только оптимизмом, но и серьезными противоречиями. Показателен конфликт между Пентагоном и компанией Anthropic, руководство которой отказалось предоставить военным "неограниченный доступ" к своей модели Claude. Компания заявила, что не может "по совести" согласиться на использование ИИ "в задачах по тотальной слежке и использованию автономных вооружений". Всего через несколько часов после заявления Пентагон разорвал контракт с Anthropic, а ее место заняла OpenAI Сэма Альтмана.
Этот случай, широко обсуждавшийся в американской прессе, наглядно продемонстрировал, что искусственный интеллект перестал быть исключительно гражданским инструментом и превратился в ключевой элемент стратегического противостояния ведущих держав. Помимо США и Израиля, активную работу в этом направлении ведут Британия, Франция и Китай, интегрируя языковые модели и аналитические системы в оборонные комплексы.
Скрытые угрозы военного назначения ИИ
Эксперты уверены, что за внешней эффективностью скрывается целый ряд системных проблем. Как подчеркивает специалист по искусственному интеллекту Хейди Хлааф, современные системы поддержки принятия решений заставляют военных доверять алгоритмам. "Существует эффект автоматизации: человек склонен соглашаться с рекомендациями машины, превращаясь в своего рода формального подопечного", - поясняет она. Во время боевых действий, где время на принятие решений сильно ограничено, это означает полную передачу ответственности ИИ.
Особую тревогу вызывает точность таких систем. Эффективность некоторых моделей, применяемых для определения целей, может составлять всего 25 - 30 процентов. Это означает, что значительная часть ударов наносится по ошибочным или недостаточно проверенным данным. Так, по данным бывших сотрудников израильской разведки, используемая система под названием Habsora ("Евангелие") является "фабрикой массовых убийств". Система генерировала массовые списки целей, в результате которых гибли целые семьи в жилых домах.
Не менее серьезной проблемой остается непрозрачность работы алгоритмов. Большинство современных моделей представляют собой так называемые "черные ящики", принцип функционирования которых не до конца понятен даже разработчикам. В результате установить, была ли ошибка следствием неверных разведданных, сбоя системы или человеческого решения, зачастую невозможно. Это, в свою очередь, ставит под вопрос саму возможность юридической ответственности за последствия ударов.
Дополнительные риски связаны с уязвимостью самих систем. Поскольку многие модели обучаются на данных из открытых источников, они потенциально подвержены манипуляциям. По словам Хлааф, даже относительно небольшое количество специально внедренной информации может изменить поведение алгоритма. Это открывает возможности для скрытого воздействия со стороны противников.
Кроме того, ИИ может очень серьезно повлиять на стратегическую стабильность. Исследование, проведенное Королевским колледжем Лондона, показало, что в моделируемых кризисных ситуациях искусственный интеллект склонен к применению ядерного оружия.
Современная война вступает в эпоху, когда ключевые решения зачастую применяются машиной. Искусственный интеллект действительно способен ускорить операции и снизить нагрузку на персонал, но создает новые угрозы. Эксперты уверены, что инструментам ИИ может в будущем развязать ядерную войну с необратимыми последствиями.