О необходимости разработки национального этического кодекса для искусственного интеллекта говорится в аналитическом докладе Центра подготовки руководителей цифровой трансформации на базе Высшей школы госуправления РАНХиГС - он будет представлен 15 января на одной из тематических сессий Гайдаровского форума.
Первоначально программу для искусственного интеллекта пишут люди, но потом система ведет себя практически самостоятельно, в том числе может самосовершенствоваться. Принципиально важно, что искусственный интеллект способен сам принимать решения, касающиеся человека, и анализировать данные в таких объемах и с такой скоростью, которые недоступны людям. Следовательно, человек не всегда может проверить верность решения "машины". Именно поэтому нужны твердые гарантии, что при принятии решений искусственный интеллект руководствуется этическими соображениями, отмечают авторы доклада.
По их мнению, этические проблемы работы искусственного интеллекта в ближайшие годы будут становиться серьезнее и сложнее. Одна из них касается, например, сохранения приватности при применении технологии.
Алгоритмы искусственного интеллекта способны получать новую персональную информацию о людях через анализ больших данных. Собирая все больше сведений о конкретном гражданине, владелец алгоритма - будь то компания, государственная или правоохранительная структура -―может с высокой точностью предсказать, какие мероприятия будет посещать человек, что он хочет услышать, за кого склонен голосовать. Такая информация позволяет легко манипулировать людьми. Этичность ее использования - крайне важный вопрос, который требует регулирования, указывают специалисты.
Еще одна проблема - предвзятость "машинного разума". Опыт использования технологии показал, что искусственный интеллект не всегда справедлив. Например, тестировавшийся компанией Amazon алгоритм на основе искусственного интеллекта для поиска сотрудников оказался крайне избирательным и отдавал предпочтение соискателям-мужчинам. В итоге от разработки пришлось отказаться.
Недавнее исследование Национального института стандартов и технологий США показало, что ряд алгоритмов для распознавания лиц проявляет предубеждение по расовому признаку. Это выражается в том, что они гораздо чаще ошибаются при распознавании лиц африканцев, чем лиц белых европейских мужчин. Ошибка искусственного интеллекта может дорого стоить, особенно если учитывать, что технологию все чаще используют сотрудники правоохранительных органов.
Для того чтобы система искусственного интеллекта была справедливой, нужно исключить предвзятость и предубеждения в исходных данных, на которых "машинный разум" обучается, подчеркивают авторы доклада.
По их мнению, этика искусственного интеллекта должна граничить с регуляторикой и касаться прежде всего коммерческих компаний. Уже существует несколько признанных на международном уровне кодексов в этой сфере, однако России нужен свой нормативный документ, которым будут руководствоваться разработчики систем искусственного интеллекта.
Национальная стратегия искусственного интеллекта в России предполагает, что доля компаний и органов госвласти, использующих эту технологию в своей работе, достигнет 10 процентов к 2024 году и 20 процентов к 2030 году. Развитие искусственного интеллекта выделено в отдельный федеральный проект, его курирует минэкономразвития. От бизнеса за технологию отвечает Сбербанк.