Сегодня искусственный интеллект и роботы - наше все. Политики утверждают: кто будет лидером в этой сфере, тот будет владеть миром. Искусственный интеллект уже лечит, проектирует самолеты, создает лекарства, управляет авто. А впереди такие перспективы, от которых даже у фантастов дух захватывает. Правда, уже слышны редкие голоса скептиков: а может, не надо вот так бросаться с головой в воду, может, сначала на кроликах попробовать? Не возводить ИИ в абсолют?
Максим Федоров: В чем опасность такого оптимизма? Мало кто понимает, что на самом деле ИИ - это "черный ящик". Его обучили работать с теми или иными данными и выпустили в люди, позволив самостоятельно принимать решения. Но как он это делает, что происходит в этом "ящике", не знает никто. В том числе и его создатели. Они говорят, ну и что? Главное, что он работает.
Но уже есть первые тревожные ласточки. Например, самое громкое событие - это провал широко разрекламированной многомиллионной системы знаменитой фирмы IBM. Оказалось, что она ставит диагнозы и консультирует хуже среднего врача. После нескольких лет работы систему удалили с рынка.
Максим Федоров: Это не единичный случай, такие сигналы приходят из самых разных сфер, где начали активно применять ИИ. Здесь можно привести аналогию из фармакологии. Например, когда-то кокаин и опиум свободно продавали в аптеках, они считались безопасными лекарствами. Потом выяснилось, что это наркотики. То же самое произошло со многими другими веществами, например, амфетаминами. Вначале эйфория, потом стали вылезать опаснейшие побочные эффекты. Оказалось, что нередко вред может быть больше, чем польза. Без длительной стадии испытаний новый препарат нельзя выпускать в мир.
И с ИИ такая же ситуация. Сегодня крупнейшие трансатлантические корпорации стоят на позиции: главное ввязаться, а там посмотрим. Но если выпустить этого джинна из бутылки, то есть огромный риск пройти точку невозврата. Спохватимся, но будет поздно. Его назад в бутылку не затолкаешь. Поэтому сейчас нужна оценка возможных рисков ИИ. Причем не только технических, но и социальных, и этических. Словом, нужен научный подход: эксперименты, где все проверяется, выявляются "побочные эффекты".
Как реально остановить джинна?
Максим Федоров: Сейчас в ЮНЕСКО готовится нормативная база, которая должна отрегулировать многие вопросы применения ИИ. А ведь они множатся лавинообразно, так как в нашу жизнь буквально врываются роботы и нейросети. Но специалисты до сих пор даже не договорились, что же такое искусственный интеллект. Сегодня в мире существует более 100 определений. Такой хаос создает благодатную почву для разных спекуляций. Например, что ИИ - это объект или субъект права.
Но в Европе всерьез обсуждают, надо ли роботам с ИИ предоставлять право, например, голосовать. Тогда такой робот - это субъект.
Максим Федоров: Да, такие предложения есть, но сразу возникает вопрос: если такой "цифровой" субъект совершит, скажем, наезд на человека, кто будет отвечать? Непонятно. Но IT-компании заинтересованы в неопределенности самого понятия ИИ. Ведь если будет жестко записано, что это не субъект, а объект в руках человека, то вся полнота ответственности за аварию ляжет на операторов, владельцев и разработчиков. А пока нет ясности с понятиями, есть шанс уйти от ответственности.
Сейчас за границей, особенно в Японии, настоящий бум умных роботов, а по сути, кукол, которые в той или иной степени имитируют человека. Он с ними вступает в эмоциональную (и не только!) связь. Начинает воспринимать как реальную личность. Доходит до того, что уже появились желающие вступить в брак с куклой. Могли представить себе подобное те, кто стоял у истоков роботов и ИИ?
Максим Федоров: Конечно, это несет угрозу самой нашей сути. Ведь тому, кто воспримет куклу как человека, реальный человек становится не нужен. А дальше встает вопрос, а зачем мы друг другу, зачем люди вообще на этой планете? Так подрываются традиционные ценности, которые веками вырабатывало человечество.
Но есть еще один аспект, который энтузиасты подобной роботизации не до конца понимают. Ведь куклу кто-то создал, заложил в нее выгодную для автора программу, а значит, у него есть возможности вами манипулировать через эмоциональную привязанность к этому "умному предмету".
Вы сказали об угрозе традиционным ценностям. Но мы видим, что на Западе это стало тенденцией, многие устои рушатся прямо на наших глазах. Что вчера считалось незыблемым, почти законом, сегодня сбрасывается с пьедестала. Особенно в сфере гендерных отношений. Проникают такие веяния в нейросети?
Максим Федоров: Увы, да. Даже появился термин "цифровой гендер". Вроде бы где ИИ и где гендеры? Но тренд на внедрение неолиберальных ценностей проникает даже в сугубо технические и ранее не имевшие к политике сферы. Почему? По-моему, здесь две причины. Во-первых, с помощью идей неолиберализма можно форматировать общественное сознание по единообразному лекалу, а во-вторых, таким способом в международные документы "зашивается" скрытый протекционизм крупного капитала в области ИИ. Тема прав человека с гендерным довеском - это не столько про сами права, сколько про деньги.
Сегодня в мировой гонке роботов и ИИ лидируют ведущие, в основном западные страны. А точнее, транснациональные корпорации. Как они намерены диктовать правила игры в сфере ИИ?
Максим Федоров: В последние 3-5 лет на Западе всерьез заговорили, что нужна некая структура, которая получит от ООН полномочия готовить в области ИИ документы, обязательные для исполнения всеми странами. Кроме того, она будет контролировать, как эти требования соблюдаются.
Подобные идеи периодически всплывают и циркулируют в ООН и Совете Европы. Инициаторами являются трансатлантические корпорации, которые предложили, например, создать некоего международного "супервайзера" по ИИ по аналогии с Организацией по запрещению химического оружия (ОЗХО) или Международным агентством по атомной энергии (МАГАТЭ).
Цели этих лоббистов очевидны: по аналогии с ОЗХО, получить возможность монополизировать сбор и анализ информации. Это позволит легально игнорировать национальные правила работы с ИИ, снимать защитные барьеры, если они идут вразрез с введенным ими режимом применения ИИ, вводить санкции к "нарушителям международного порядка".
Если восторжествует такой подход, если правила игры для всех будет диктовать "большой брат", то страны лишатся своего "цифрового суверенитета", а значит, и общенационального суверенитета. Кто попадет в этот список неугодных? С учетом нынешней обстановки с большой вероятностью их можно назвать: Китай, Россия, Иран, Венесуэла и Северная Корея.
В подготовленных ЮНЕСКО документах рассматриваются все эти проблемы?
Максим Федоров: Сейчас на рассмотрении находится проект Рекомендации по этическим аспектам ИИ. Это фактически первая попытка сблизить позиции мирового сообщества и подготовить базу для будущего нормативного и даже нормативно-правового регулирования технологий ИИ на глобальном уровне. А Совет Европы планирует создать первый юридически обязательный к исполнению международный документ: Рамочную конвенцию по ИИ. Скорее всего, он может появиться уже в 2022 году.
Наверняка, работая в рабочей группе ЮНЕСКО, вы объясняете позицию нашей страны по тем чувствительным вопросам, о которых мы говорили. Вас, конечно, слушают, а вот слышат ли?
Максим Федоров: Да, по ряду вопросов приходилось оставаться в меньшинстве. Однако мне постоянно оказывают поддержку мои коллеги из Национального комитета по этике ИИ при Комиссии РФ по делам ЮНЕСКО. Вместе нам удается готовить убедительные ответы на возражения оппонентов. Так что в целом более 70 процентов наших предложений прошло в том или ином виде. Учитывая колоссальное давление со стороны "партнеров", считаю это хорошим результатом. Комбинация здравого смысла и научного подхода, на которой основана позиция РФ, помогает убеждать. Все же язык науки, он международный, на нем проще договариваться.