В частности, экс-заместитель министра обороны США Роберт Уорк считает, что если военные будут использовать системы искусственного интеллекта при принятии решений о нанесении ядерного удара, то для человечества возникнет реальная опасность уничтожения.
В интервью изданию Breaking Defense он рассказал, что необходимо минимизировать применение компьютерного "супермозга" при контроле ядерного вооружения, так как он может выделить ряд неопасных факторов и посчитать, что они представляют угрозу. "И это является тревожной перспективой", - убежден Уорк.
В качестве примера он привел советскую систему "Периметр", которую на Западе называют "мертвая рука" или "рука из гроба". По мнению Уорка, эта система, которая может быть вновь принята на вооружение, внезапно примет сейсмические толчки за ядерные взрывы и если не получит приказ "отбой", автоматически даст команду на запуск межконтинентальных баллистических ракет.
Или представьте, рассказывает Уорк, что искусственный интеллект в командном центре китайской армии, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по КНР, и рекомендует нанести превентивный удар.
В итоге бывший военный чиновник делает вывод о том, что системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, так как это может привести к плачевным последствиям.
В России к примерам и выводам американских аналитиков отнеслись достаточно скептично. В частности, по некоторым данным, системы под названием "Периметр" сейчас в России нет. Та система, которая пришла ей на смену, не стоит на боевом дежурстве и может быть активирована только в том случае, если возникнет серьезная угроза ядерного нападения.
В частности, военный эксперт Виктор Мураховский рассказал "РГ", что выводы, которые сделал бывший замминистра, говорят о том, что он ничего не знает о системе "Периметр" и алгоритмах его работы. "Не может эта система в силу своих алгоритмов принять сейсмические толчки за ядерные взрывы", - подчеркнул эксперт. По словам Мураховского, все специалисты понимают ограниченность использования искусственного интеллекта, а примеры, приведенные Уорком, - просто американские "пугалки".
Сейчас искусственный интеллект в армии применяется в тех системах, где человек не успевает принимать решения в силу скоротечности процессов. Например, в противоракетной обороне и в некоторых системах ПВО. Да и то они предлагают варианты принятия решений, а не сами запускают ракеты. Окончательное решение сейчас всегда принимает человек, и именно он нажмет "красную" кнопку, а не мифический компьютерный "супермозг".