14.04.2023 11:05
    Поделиться

    Более трети ведущих ученых-программистов считают, что искусственный интеллект может привести к "катастрофе на ядерном уровне"

    Согласно опросу Стэнфордского университета, более трети ведущих ученых в области программирования считают, что искусственный интеллект (ИИ) может привести к "катастрофе на ядерном уровне", что подчеркивает опасения научного сообщества по поводу рисков, связанных с быстро развивающимися технологиями.
    Фото: iStock

    Опрос входит в число результатов, отмеченных в отчете об индексе искусственного интеллекта за 2023 год, опубликованном Стэнфордским институтом искусственного интеллекта, в котором рассматриваются последние разработки, риски и возможности в растущей области ИИ.

    "Эти системы демонстрируют возможности ответа на вопросы и генерации текста, изображений и кода, которые невозможно было представить десять лет назад, и они превосходят современные технологии по многим тестам, как старым, так и новым", - говорят авторы отчета. По оценкам ученых, системы ИИ "склонны к галлюцинациям, обычно предвзяты и могут быть обмануты для достижения гнусных целей, что подчеркивает сложные этические проблемы, связанные с их использованием".

    Отчет появился на фоне растущих призывов к регулированию ИИ после серии тревожных новостей, начиная от самоубийства, связанного с чат-ботом, и заканчивая дипфейковыми видеороликами, сообщает Al-Jazeera. В марте Илон Маск и соучредитель Apple Стив Возняк были среди 1300 подписавших открытое письмо, призывающее к шестимесячной паузе в обучении систем ИИ, выходящих за рамки уровня чат-бота Open AI GPT-4.

    В опросе Стэндфордского университета 36 процентов исследователей заявили, что решения, принятые ИИ, "могут привести к ядерной катастрофе", а 73 процента полагают, что вскоре они могут привести к "революционным изменениям в обществе". В опросе приняли участие 327 экспертов в области обработки естественного языка, области информатики, ключевой для разработки чат-ботов, таких как GPT-4.