06.05.2022 14:16
    Поделиться

    Интеллект без границ: кто и зачем хочет регулировать ИИ

    Согласно новому Индексу ИИ-2022 Стэндфордского университета, Россия в этом году вышла в лидеры по числу нормативных актов в области искусственного интеллекта, уступая только США. Почему в мире уделяют все больше внимания регулированию ИИ и нужно ли так тщательно его регулировать?
    фото IPQuorum

    Передовая технология или реальная угроза?

    В феврале 2022 года Минэкономразвития России совместно с учеными ВШЭ и компаниями - лидерами отрасли опубликовало "Белую книгу" высоких технологий - искусственный интеллект вошел в число десяти самых передовых. Эксперты констатируют, что развитие ИИ в нашей стране соответствует глобальным трендам и на уровне фундаментальных исследований, и в области практического применения.

    Но наряду с ростом возможностей искусственного интеллекта растет и беспокойство о потенциальных угрозах, которые несет эта технология. В конце прошлого года Совфед РФ поручил профильным министерствам доработать закон, который исключит дискриминацию людей со стороны ИИ и регламентирует порядок обжалования решений, принятых алгоритмами. Новый стэнфордский Индекс ИИ также уделяет вопросам регулирования и этики ИИ намного больше внимания, чем прежде. Законодателей, исследователей и разработчиков волнует проблема соответствия алгоритмов ИИ принципам справедливости и непредвзятости.

    Многие обеспокоены тем, что ИИ используется для ограничения прав и свобод человека. Как происходит, например, в Китае, где власти применяют "умные камеры" и системы распознавания лиц для тотальной слежки за своими гражданами. Алгоритмы ИИ помогают ранжировать людей в зависимости от одобряемого властями поведения - неугодным могут отказать в выдаче кредита и социальных выплатах, запретить покидать страну или работать в определенных сферах.

    Кроме того, ИИ все чаще обвиняют в дискриминации. Например, системы распознавания лиц в США и Европе обычно обучают на датасетах, где больше всего фотографий людей титульной расы и национальности. В итоге они плохо распознают азиатов, латиноамериканцев или афроамериканцев, чаще указывают на темнокожих людей как на потенциальных преступников. А ВОЗ в марте опубликовала доклад, в котором требует при разработке тестировать алгоритмы ИИ на эйджизм - дискриминацию людей по возрасту.

    Еще одно распространенное опасение - что искусственный интеллект и роботы вытеснят людей из многих профессий. Футуролог Герд Леонгард считает, что неконтролируемое развитие технологий приведет к обесцениванию человеческого труда, потребностей и эмоций. Дарон Асемоглу, профессор Массачусетского технологического института, предупреждает: если технологии не ограничивать, тотальный кризис в экономике неизбежен.

    Наконец, пугает сама скорость развития ИИ. В 2021 году ученые из Института Макса Планка пришли к выводу, что при таких темпах развития технологий мы скоро просто утратим над ними контроль.

    Впрочем, представители компаний, которые работают с ИИ, не согласны с мрачными прогнозами. Они уверены, что искусственный интеллект сам по себе не опасен и не нуждается в жестком регулировании. Угрозу несет не технология, а люди, которые могут использовать ее неумело или неправильно.

    Александр Ханин, генеральный директор МТС AI:

    Для того чтобы общество правильно понимало специфику работы ИИ-разработчиков, нужна отдельная программа просвещения. Так у рядовых потребителей появится правильное понимание. Более того, необходим диалог лидеров отрасли, правительства и граждан на тему того, как этично и безопасно применять ИИ в различных сферах (...). Также компании-разработчики должны сотрудничать с экспертами по кибербезопасности. Возьмем, к примеру, применение биометрии в московском метрополитене. Прежде чем запустить технологию в тестовом режиме, команда VisionLabs в течение долгого времени консультировалась и совместно тестировала систему с лучшими специалистами в сфере безопасности.

    В октябре 2021 года Аналитический центр при Правительстве России, Минэкономразвития, Альянс в сфере ИИ (Сбер, МТС, VK, "Газпром нефть", "Яндекс", Российский фонд прямых инвестиций) и другие крупные компании и научно-исследовательские центры подписали Кодекс этики ИИ. Тут Россия тоже соответствует общемировым тенденциям.

    Андрей Незнамов, управляющий директор Центра регулирования искусственного интеллекта Сбербанка:

    Сегодня в мире принято более 100 самостоятельных документов в сфере этики ИИ на самых разных уровнях - от локальных корпоративных до международных. В центре всех принятых сегодня этических документов стоит человек, создание условий для его благополучия, защита прав и законных интересов, обеспечение безопасности при взаимодействии с технологиями ИИ.

    Впрочем, некоторые эксперты считают, что понятие "этика" не стоит применять к искусственному интеллекту:

    Игорь Пивоваров, организатор конференции OpenTalks.AI, главный аналитик Центра искусственного интеллекта МФТИ:

    "Этика ИИ" - это пока что бессмысленное словосочетание. Этика - это философская дисциплина, которая изучает морально-нравственные аспекты человеческих поступков. Но это относится только к тем субъектам, которые принимают решения. ИИ сегодня не может принимать решения самостоятельно, поэтому и понятие этики к нему неприменимо. Пока что мы можем говорить только об этике разработчиков ИИ-технологий и тех, кто их применяет. Есть области применения ИИ, где от неверного решения может зависеть человеческая жизнь. Например, когда нейросети используют для анализа снимков КТ. Здесь все действуют предельно осторожно и тщательно проверяют данные и алгоритмы. В других же областях вопросы этики неочевидны. Но в ближайшем будущем нам придется обратить на них больше внимания.

    Границы на замке: как регулируют ИИ в разных странах 

    Согласно Индексу ИИ-2022, больше всего законопроектов в области ИИ за год было принято в Испании, Великобритании и США - по три закона в каждой стране.

    В ЕС с 2018 года действует регламент GDPR. Он касается защиты персональных данных и запрещает использование многих алгоритмов для сбора, анализа данных и распознавания лиц без прямого согласия пользователей. В 2018-м опубликованы Европейская стратегия в области искусственного интеллекта и Скоординированный план реализации европейской стратегии в области ИИ. В 2019 году - Руководящие принципы этичного ИИ, а в 2020-м - Оценочный лист для надежного ИИ.

    Еврокомиссия предложила ограничить использование инструментов ИИ с "высокими рисками" для общества. К ним отнесли технологии, касающиеся жизни и здоровья людей, а также те, которые могут манипулировать их поведением и влиять на важные решения (например, прием на работу или оценку показаний в суде). Исключение делается только для военных, служб безопасности, поиска пропавших людей или преступников.

    В Великобритании опубликовали национальный стандарт алгоритмической прозрачности. Теперь все госорганы обязаны информировать граждан о том, используют ли они ИИ для принятия решений.

    В США пока нет общих регламентов. Два года назад Белый дом опубликовал документ, описывающий принципы, на которых может строиться государственное регулирование в сфере ИИ. В штатах Калифорния и Орегон использовать систему распознавания лиц запрещено как полиции, так и другим госорганам. С 2020 года это пытаются запретить и в других штатах. Предпринимаются также попытки ограничить использование данных о геолокации смартфонов. В то же время самые большие массивы персональных данных и самые неограниченные возможности ими пользоваться - в том числе с применением ИИ-технологий - в руках таких ИТ-корпораций, как Google, Apple, Amazon и Facebook (признан в России экстремистской организацией). И они чаще всего диктуют свои правила другим участникам рынка и пользователям.

    В Китае, где власти бесконтрольно используют инструменты ИИ для социального мониторинга, все же вводятся некоторые ограничительные меры. С 2022 года все местные компании, использующие рекомендательные алгоритмы, - это прежде всего ИТ-гиганты Alibaba (владеет AliExpress), Tencent (владеет WeChat), ByteDance (владеет TikTok) - обязаны предоставлять пользователям возможность отклонять то, что советует им ИИ.

    В России сами системы распознавания лиц и другие ИИ-решения пока не регулируются, но действует Закон о защите персональных данных. Кроме того, некоторые правила и ограничения для этой сферы внедряются в рамках нацпроекта "Цифровая экономика". Действующая с 2019 года Национальная стратегия развития искусственного интеллекта предусматривает специальные правовые режимы для тестирования инновационных технологий.

    Александр Ханин:

    Лидеры отрасли и власти должны уже сейчас прогнозировать будущее развитие отношений искусственного интеллекта и человека. Более того, уже широко известны кейсы, когда возникал общественный диалог вокруг корректности работы алгоритмов искусственного интеллекта. Поэтому текущие законодательные инициативы в ряде стран являются логичной и своевременной реакцией на стремительное развитие ИИ.

    Андрей Незнамов:

    Мир действительно последовательно идет к этапу формирования регулирования в сфере ИИ. К 2022 году уже сложились основные ориентиры в управлении ИИ, стали понятны взгляды на проблему самых разных стейкхолдеров. Ведущие страны мира признали важность ИИ для развития экономического и стратегического потенциала, и более 40 государств уже утвердили национальные стратегии развития ИИ, в том числе США, КНР, Франция, ОАЭ. Но все это произошло в последние пять-десять лет.

    Как нам обуздать искусственный интеллект?

    С одной стороны, любые ограничения в области ИИ существенно тормозят развитие этой технологии - мы пока не можем пользоваться ни беспилотными автомобилями, ни медицинскими препаратами, созданными персонально для каждого пациента. С другой стороны, необходимость в регулировании в сфере ИИ очевидна. Исследователи из Института Макса Планка, основываясь на теоретических расчетах, вывели два пути для такого регулирования:

    1. Сдерживание, то есть ограничение доступа сверхсильного ИИ к интернету и свободному обмену данными. Это можно сделать, оградив его от других устройств и интернет-ресурсов и запрограммировав в нем этические ограничения, которые есть у человека. Это бы позволило ИИ не достигнуть критической мощности и нацелить его, прежде всего, на решение гуманитарных и этически оправданных задач. Правда, возможности такого ИИ будут существенно ограничены: во-первых, даже у самых развитых гуманистических идей есть свои пределы и спорные моменты, а во-вторых, без свободного доступа к данным в режиме онлайн ИИ не сможет эффективно обучаться и принимать наиболее объективные решения.

    2. Создание специальных алгоритмов, которые удержат ИИ от причинения вреда человеку. К сожалению, на этом пути могут возникать серьезные ошибки: такой алгоритм может ограничивать не только ИИ, но и самого себя. При текущем уровне знаний алгоритм пока невозможно разработать, так как невозможно смоделировать и сам ИИ, который бы превосходил человеческий.

    ***

    Полный текст этой статьи и многие другие материалы на сайте ©IPQuorum - первого в России издания о креативных индустриях и интеллектуальной собственности. IPQuorum - это новый формат работы международного бренда, который с 2017 года организует все самые яркие события мира интеллектуальной собственности и креативных индустрий в России, включая рынок LegalTech и сферы институтов развития. IPQuorum исповедует доказательную редакционную политику и показывает на достоверных фактах и судьбах, что сегодня инновации возникают на пересечении разных идей и индустрий.

    Поделиться