Главная опасность ИИ в том, что, по сути, это "черный ящик". Сами создатели плохо понимают, как он работает, а значит, непонятны последствия его действий. И чем совершенней ИИ, тем они могут быть опасней. Апофеоз совершенствования искусственного интеллекта в том, что в созданном в его "мозгах" мире человек может оказаться лишним.
Единственный разумный выход - поставить ИИ под контроль, для чего надо раскрыть "черный ящик", сделав его прозрачным. Но как? Сегодня предлагаются разные варианты. Самый очевидный - посмотреть, как думает ИИ, отслеживая активность нейросетей. Это напоминает использование магнитно-резонансной томографии (МРТ) для изучения работы мозга. Другой метод - мониторинг цепочки рассуждений, когда ученые "заставляют" ИИ-модели объяснять логику, лежащую в основе их действий. Это позволяет выявлять несоответствия между поведением ИИ и заданными целями.
Впрочем, скептики считают, что попытки понять логику ИИ вряд ли помогут. Несмотря на все призывы, остановить энтузиазм его создателей практически невозможно, так как он сулит огромные возможности, поэтому надо срочно искать более действенные способы поставить ИИ под жесткий контроль человека. Иначе само его будущее окажется под вопросом.