Новости

02.09.2019 21:05
Рубрика: Власть

Красная кнопка с ошибкой

В США опасаются, что искусственный интеллект может развязать ядерный конфликт
Американские военные опасаются, что искусственный интеллект может стать причиной возникновения глобального ядерного конфликта. Компьютерный "супермозг", неверно оценив полученные данные, способен дать команду на превентивный удар или даже самостоятельно запустить ядерные ракеты.
 Фото: iStock  Фото: iStock
Фото: iStock

В частности, экс-заместитель министра обороны США Роберт Уорк считает, что если военные будут использовать системы искусственного интеллекта при принятии решений о нанесении ядерного удара, то для человечества возникнет реальная опасность уничтожения.

В интервью изданию Breaking Defense он рассказал, что необходимо минимизировать применение компьютерного "супермозга" при контроле ядерного вооружения, так как он может выделить ряд неопасных факторов и посчитать, что они представляют угрозу. "И это является тревожной перспективой", - убежден Уорк.

В качестве примера он привел советскую систему "Периметр", которую на Западе называют "мертвая рука" или "рука из гроба". По мнению Уорка, эта система, которая может быть вновь принята на вооружение, внезапно примет сейсмические толчки за ядерные взрывы и если не получит приказ "отбой", автоматически даст команду на запуск межконтинентальных баллистических ракет.

Или представьте, рассказывает Уорк, что искусственный интеллект в командном центре китайской армии, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по КНР, и рекомендует нанести превентивный удар.

В итоге бывший военный чиновник делает вывод о том, что системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, так как это может привести к плачевным последствиям.

В России к примерам и выводам американских аналитиков отнеслись достаточно скептично. В частности, по некоторым данным, системы под названием "Периметр" сейчас в России нет. Та система, которая пришла ей на смену, не стоит на боевом дежурстве и может быть активирована только в том случае, если возникнет серьезная угроза ядерного нападения.

В США считают, что компьютерный "супермозг", неверно оценив полученные данные, может сам запустить ядерные ракеты

В частности, военный эксперт Виктор Мураховский рассказал "РГ", что выводы, которые сделал бывший замминистра, говорят о том, что он ничего не знает о системе "Периметр" и алгоритмах его работы. "Не может эта система в силу своих алгоритмов принять сейсмические толчки за ядерные взрывы", - подчеркнул эксперт. По словам Мураховского, все специалисты понимают ограниченность использования искусственного интеллекта, а примеры, приведенные Уорком, - просто американские "пугалки".

Сейчас искусственный интеллект в армии применяется в тех системах, где человек не успевает принимать решения в силу скоротечности процессов. Например, в противоракетной обороне и в некоторых системах ПВО. Да и то они предлагают варианты принятия решений, а не сами запускают ракеты. Окончательное решение сейчас всегда принимает человек, и именно он нажмет "красную" кнопку, а не мифический компьютерный "супермозг".

Власть Безопасность В мире США Ядерная безопасность
Добавьте RG.RU 
в избранные источники