27.04.2021 13:00
    Поделиться

    Эксперт рассказал об опасности искусственного интеллекта

    Istock

    Еврокомиссия предложила наложить полный запрет на применение систем искусственного интеллекта (ИИ) в ряде случаев. В первую очередь, в случаях, связанных с человеческими судьбами и свободой выбора человека. Какие опасности несет бурное развитие технологий ИИ, рассказал в интервью RT эксперт по глубоким нейронным сетям и машинному обучению, разработчик систем распознавания и синтеза изображений, голоса и экспертных систем Станислав Ашманов.

    Искусственный интеллект - это прежде всего любая замена человеческого труда на машину, на математический алгоритм. Прогресс достиг такого уровня, что он может принимать решение самостоятельно, без участия специалистов. Вот эту его способность можно использовать далеко не любым образом, поскольку это несет в себе опасность. Особенно в военной сфере или в личном пространстве человека.

    Чтобы предупредить эту опасность и заранее подготовиться к возможным рискам из-за неправильного использования ИИ, необходимо ввести строгие правила, считает Ашманов. По аналогии с правилами дорожного движения - они не ограничили прогресс и развитие автомобильной отрасли, но при этом общество может гарантировать меньшее количество жертв на дорогах.

    Эксперт приводит пример, как простой цифровой кредитный рейтинг, которым пользуются банки, может повлиять на судьбу человека: если у человека плохая кредитная история, ему не дадут кредит, он не сможет купить квартиру и улучшить свою жизнь. А если искусственный интеллект проставит человеку глобальный социальный рейтинг, цифровизируя и автоматизируя всю его жизнь - и вынесет математическую формулу - решение, которое полностью дискредитирует его?

    "Опасность в том, что мы делегируем искусственному интеллекту ответственность принимать решения о наших судьбах. А он не обладает никаким, так сказать, моральным компьютером, моральным вычислителем, - говорит ученый. - И если мы важные решения передадим машине, то окажемся в заложниках не просто алгоритма, а разработчиков алгоритма... Это не то, к чему хочется прийти".

    С помощью ИИ любого человека можно отследить в офлайн и в цифровом пространстве и использовать полученную информацию против него.

    Необходима сертификация продуктов с искусственным интеллектом, чтобы убедиться, что они соблюдают этические нормы. "Нельзя давать автоматическим системам и алгоритмам принимать решения о человеческих судьбах, - считает Ашманов. - Мы не должны увидеть роботов-судей, роботов-юристов, которые решают, как распределить детей между родителями, кому отдать имущество"

    "А беспилотники, которые сами принимают решение о нанесении удара, умные мины, которые отличают солдата одной стороны от другой. Здесь возможны всякие ужасы, если не получится договориться", - предупреждает ученый.

    Как отмечает Станислав Ашманов, разработки умного оружия и другая военная продукция в области искусственного интеллекта не попадут под законодательные ограничения.

    Напротив, американцы, например, хотят добиться присутствия искусственного интеллекта во всех государственных организациях, чтобы разведка использовала человеко-машинные методы работы с информацией. Она важна также для корпораций, которые обзаводятся гигантской клиентской базой.

    Поделиться