07.12.2021 20:28
Общество

Почему академики не доверяют искусственному интеллекту

Текст:  Юрий Медведев
Российская газета - Федеральный выпуск: №278 (8629)
Можно ли доверять искусственному интеллекту? Как он путает человека и птицу? Почему его обвиняют в феномене постправды и сможет ли он ее победить? Об этом шла речь на заседании президиума Российской академии наук.
/ miriam-doerr / istock
Читать на сайте RG.RU

Кто скажет, а почему академики вообще так встревожились? Ведь искусственный интеллект, созданный на основе нейросетей, уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Он диагнозы ставит, лица идентифицирует, музыку и картины пишет, чемпионов в покер и го обыгрывает, предсказывает погоду и банкротства. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а, в конце концов, и общества.

В США газеты заменяют живых журналистов искусственным интеллектом

Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги. Словом, сейчас ИИ наше все.

Однако на президиуме РАН вопрос был поставлен ребром: а можно ли вообще доверять этим искусственным мозгам? Где границы этого доверия? Какое место они оставляют человеку?

- Дело в том, что ИИ это сегодня "черный ящик", но самое главное, что никто, даже сами авторы программ не знают, как он работает, - сказал президент РАН Александр Сергеев. - Можно ли в такой ситуации довериться его выводам? Ведь он будет, по сути, брать на себя функции оракула по самым разным вопросам. И надо признать, что многие задачи эта умная машина уже сейчас делает быстрее и лучше человека. И кто знает, а может у кого-то вообще может возникнуть соблазн: так давайте вообще откажемся от науки. Все передоверим нейросетям, на них любые расчеты смогут провести обычные операторы даже без высшего образования. Ведь есть программа, ввел в нее входные данные, она произвела расчеты, на выходе - результат. Но мало кто задумывается, что в итоге такого доверия можно получить совершенно искаженную картину, которая обойдется в многие миллионы долларов. Почему президент РАН сомневается? Ведь мы давно полагаемся на компьютеры, которые помогают решать самые сложнейшие задачи. Почему доверяя компьютерам, мы отказываем нейросетям? Оказывается, ситуация с ними кардинально иная.

- Революцией в познании мира стали созданные еще в 17 веке Ньютоном дифференциальные уравнения, - сказал академик Игорь Соколов. - Они позволили описывать и моделировать многие процессы окружающего мира и находить решения. А появившиеся в 50-х годах ЭВМ смогли быстро и эффективно справляться со сложнейшими уравнениями. Прорывы в ядерной физике и космонавтике связаны именно с этой вычислительной техникой.

Но принципиально важно подчеркнуть, что вся эта супертехника, по сути, является суперкалькулятором, только считающим с фантастической скоростью. Совсем иное дело нейросети, созданные по аналогии с мозгом человека. Но как мы до сих пор не понимаем, как работает наш мозг, также не понимаем, что происходит в нейросети. Хотя в их основе лежит довольно простое уравнение одного нейрона, но когда 500 миллиардов таких "простушек" объединяются в гигантские сети, никто не может сказать, какие там устанавливаются связи, как они вообще считают. Одно слово - "черный ящик".

Более того, чем больше с ним работают, тем больше у него выявляется изъянов. Вот только несколько простых примеров. Прежде чем выпустить ИИ в люди, его обучают на сотнях тысячах, а лучше миллионах примерах. И если в "учебнике" поменять всего один пиксель, то нейросеть примет тигра за медведя. А скажем, если человек наденет майку с изображением птицы, то назовет его птицей. А самый громкий ляп связан с применением ИИ в медицине. Это провал широко разрекламированной многомиллионной нейросети знаменитой фирмы IBM. Оказалось, что она ставит диагнозы и консультирует хуже среднего врача. После нескольких лет работы систему удалили с рынка.

Вывод: хотя ИИ и очень умный, но и он далеко не безгрешен, совершает ошибки. Можно ли их исправлять? Как залезть в черный ящик, не "разрушая" его?

- Сегодня мировой тренд - создание так называемого доверенного искусственного интеллекта, - сказал академик Арутюн Аветисян. - То есть разработать такие требования, которые в принципе не позволят выпустить в мир нейросеть, которая способна совершать ошибки. И тестировать эту технику перед началом эксплуатации. Если пройдет испытание успешно, то можно доверять. Для разработки таких аналогов ГОСТов в институте создан первый в России Центр доверенного искусственного интеллекта.

И, конечно, ученые обратили внимание на "больной" для общества феномен последнего времени, которое получило название "постправда". Этот информационный поток - фейки, ботофермы, информационные пузыри - намеренно конструируется для манипулирования общественным сознанием.

ИИ сегодня - это "черный ящик", но самое главное, никто, даже сами авторы программ не знают, как он работает

Конечно, на протяжении всей своей истории люди лгали друг другу, сплетничали и распространяли слухи. Но если раньше это явление было "домашним", то технологии ИИ выплеснули его в мир. Сегодня с помощью нейросетей можно очень быстро генерировать миллионы фейковых новостей, которые заполоняют информационное пространство, и под этим напором лжи нам все сложней отыскать истину.

ЮУрГУ запускает новые образовательные программы по искусственному интеллекту

Наука ищет способы остановить этот поток постправды. Парадоксально, но тот, кто ее породил, тот же с ней и борется. Такие фейки тоже создаются на основе нейросетей. Пока им под силу только довольно простые фейки, да и здесь они делают много ошибок.

- Но лгут не только авторы фейков, но и официальные СМИ, которые ведут информационные войны в интересах своих заказчиков. И лгут настолько изощренно, что порой даже матерый профи может попасть на удочку. Чтобы поймать лжецов за язык, нужны очень изощренные нейросети, - утверждает завотделом Интеллектуальных систем ФИЦ "Информатика и управление" РАН Константин Воронцов. - Это сложная задача, для решения потребуются совместные усилия программистов, лингвистов, психологов, социологов, политологов, журналистов, историков. В каждом браузере должен появиться анализатор медиаконтента, предупреждающий пользователя о недостоверной информации, токсичном контенте, использовании приемов манипуляции, и дающий ссылки на доверенные источники.

Наука