Как пишет Business Insider, Маск назвал даже вероятность апокалипсиса после того, как ИИ выйдет из-под контроля. Она, по мнению предпринимателя, составляет примерно 10-20%.
Он не уточняет, как пришел к своим расчетам, но некоторые эксперты уверены, что Маск даже преуменьшает масштабы риска, и называют другие цифры вероятности - 99%.
Так, Роман Ямпольский, российский специалист по информатике, который сейчас трудится в Университете Луисвилля, известный своими работами в области поведенческой биометрии, безопасности кибермиров и искусственного интеллекта, уверен, что человечество не должно создавать продвинутый ИИ в принципе, так как контролировать его будет невозможно.
Но Маск, развивающий ИИ в своей компании xAI, считает, что жесткое регулирование этой сферы возможно. Он сравнивает ИИ с рождением супергениального ребенка, которого надо воспитывать. И если даже риск гибели человеческой цивилизации в результате восстания машин ничтожно мал, технология создания искусственного интеллекта того стоит.