
Однако операция США и Израиля на Ближнем Востоке показала: даже самые современные алгоритмы могут ошибаться. И иногда такие ошибки стоят сотен человеческих жизней.
Военные аналитики давно говорят о новой стадии развития вооруженных конфликтов. Если еще десять лет назад искусственный интеллект применялся главным образом для анализа информации, то сегодня он стал частью системы планирования ударов. Сейчас алгоритмы обрабатывают данные спутниковой разведки, записи переговоров, информацию мобильных сетей, фотографии беспилотников и социальные сети. На основе этих данных формируется список потенциальных целей.
Например, в израильской армии используются несколько подобных систем. Одна из них - Lavender. Эта программа анализирует поведенческие и коммуникационные модели людей и формирует список подозреваемых участников вооруженных группировок. Другая система - The Gospel (в переводе с английского - "Евангелие"). Она помогает определять здания и инфраструктурные объекты, которые могут быть связаны с военными структурами противника.
Есть и более узконаправленные программы. Например, Where's Daddy - она отслеживает передвижения конкретных людей и сообщает, когда они возвращаются домой. Эта информация тоже может использоваться для планирования удара. По словам военных, подобные системы позволяют значительно ускорить подготовку операций. То, на что раньше уходили недели работы аналитиков, алгоритмы делают за считаные минуты.
Главное преимущество искусственного интеллекта - скорость. Раньше разведка могла подготовить несколько десятков целей за длительный период, сегодня же алгоритмы способны генерировать десятки и даже сотни потенциальных объектов для ударов ежедневно.
Военные называют этот процесс "конвейером целей". В то же время у высокой скорости есть обратная сторона: проверять каждую рекомендацию алгоритма зачастую не хватает времени.
Разработчики уже признали, что искусственный интеллект не гарантирует абсолютной точности. По данным расследований журналистов и экспертов, система Lavender могла ошибаться примерно в каждом десятом случае. Это означает, что среди отмеченных алгоритмом целей могли оказаться люди, не имеющие отношения к вооруженным группам.
Ошибки возникают по разным причинам. Иногда алгоритм принимает за подозрительную активность то, что ей не является - например, частые телефонные звонки или перемещения между районами. Иногда проблема связана с неполными разведданными. Но в условиях интенсивной войны даже небольшая ошибка может привести к трагическим последствиям.
Несколько случаев, получивших широкую огласку, показали, насколько опасными могут быть ошибки искусственного интеллекта. По данным расследований, в ряде эпизодов удары наносились по жилым домам, где, как предполагалось, находились боевики. Однако там находились и мирные граждане.
Отдельные атаки приходились и на объекты гражданской инфраструктуры. Один из самых известных эпизодов - удар по зданию школы для девочек в Иране, которое было ошибочно определено системой как возможный командный пункт. Позднее выяснилось, что разведданные оказались неточными. Погибли около 150 детей.
Эксперты называют несколько причин ошибок военного искусственного интеллекта. Например, качество данных. Алгоритм анализирует ту информацию, которую получает. Если она неполная или ошибочная, система может прийти к неправильному выводу. Кроме того, ошибки возникают из-за совпадения моделей поведения. Алгоритмы ищут определенные шаблоны активности, но похожие действия могут совершать и обычные гражданские люди. Кроме того, серьезные просчеты возникают из-за того, что в условиях интенсивных боевых действий решения принимаются очень быстро, и операторы иногда доверяют рекомендациям программы, не имея возможности тщательно их проверить.
Отсюда возникает вопрос: так кто же ответственен за результат удара? Формально искусственный интеллект не принимает окончательных решений. Он лишь предлагает военным список целей. Последнее слово остается за человеком.
Но, когда алгоритм генерирует десятки целей ежедневно, роль человека все чаще сводится к формальному подтверждению рекомендаций системы. Именно поэтому эксперты говорят о риске так называемой "автоматизации войны", когда ключевые решения принимаются на основе математических моделей.
Опыт последних конфликтов показывает, что искусственный интеллект уже стал важным элементом современной военной машины. Алгоритмы помогают быстрее находить цели, планировать операции и анализировать разведданные. Но одновременно они создают новые риски. Ошибка программы может привести к удару по гражданскому объекту, а ответственность за нее оказывается размыта. Именно поэтому многие специалисты считают, что использование искусственного интеллекта в военных операциях требует новых международных правил и более строгого контроля.