Более трети ведущих ученых-программистов считают, что искусственный интеллект может привести к "катастрофе на ядерном уровне"
Опрос входит в число результатов, отмеченных в отчете об индексе искусственного интеллекта за 2023 год, опубликованном Стэнфордским институтом искусственного интеллекта, в котором рассматриваются последние разработки, риски и возможности в растущей области ИИ.
"Эти системы демонстрируют возможности ответа на вопросы и генерации текста, изображений и кода, которые невозможно было представить десять лет назад, и они превосходят современные технологии по многим тестам, как старым, так и новым", - говорят авторы отчета. По оценкам ученых, системы ИИ "склонны к галлюцинациям, обычно предвзяты и могут быть обмануты для достижения гнусных целей, что подчеркивает сложные этические проблемы, связанные с их использованием".
Отчет появился на фоне растущих призывов к регулированию ИИ после серии тревожных новостей, начиная от самоубийства, связанного с чат-ботом, и заканчивая дипфейковыми видеороликами, сообщает Al-Jazeera. В марте Илон Маск и соучредитель Apple Стив Возняк были среди 1300 подписавших открытое письмо, призывающее к шестимесячной паузе в обучении систем ИИ, выходящих за рамки уровня чат-бота Open AI GPT-4.
В опросе Стэндфордского университета 36 процентов исследователей заявили, что решения, принятые ИИ, "могут привести к ядерной катастрофе", а 73 процента полагают, что вскоре они могут привести к "революционным изменениям в обществе". В опросе приняли участие 327 экспертов в области обработки естественного языка, области информатики, ключевой для разработки чат-ботов, таких как GPT-4.