Кто скажет, а почему академики вообще так встревожились? Ведь искусственный интеллект, созданный на основе нейросетей, уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Он диагнозы ставит, лица идентифицирует, музыку и картины пишет, чемпионов в покер и го обыгрывает, предсказывает погоду и банкротства. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а, в конце концов, и общества.
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги. Словом, сейчас ИИ наше все.
Однако на президиуме РАН вопрос был поставлен ребром: а можно ли вообще доверять этим искусственным мозгам? Где границы этого доверия? Какое место они оставляют человеку?
- Дело в том, что ИИ это сегодня "черный ящик", но самое главное, что никто, даже сами авторы программ не знают, как он работает, - сказал президент РАН Александр Сергеев. - Можно ли в такой ситуации довериться его выводам? Ведь он будет, по сути, брать на себя функции оракула по самым разным вопросам. И надо признать, что многие задачи эта умная машина уже сейчас делает быстрее и лучше человека. И кто знает, а может у кого-то вообще может возникнуть соблазн: так давайте вообще откажемся от науки. Все передоверим нейросетям, на них любые расчеты смогут провести обычные операторы даже без высшего образования. Ведь есть программа, ввел в нее входные данные, она произвела расчеты, на выходе - результат. Но мало кто задумывается, что в итоге такого доверия можно получить совершенно искаженную картину, которая обойдется в многие миллионы долларов. Почему президент РАН сомневается? Ведь мы давно полагаемся на компьютеры, которые помогают решать самые сложнейшие задачи. Почему доверяя компьютерам, мы отказываем нейросетям? Оказывается, ситуация с ними кардинально иная.
- Революцией в познании мира стали созданные еще в 17 веке Ньютоном дифференциальные уравнения, - сказал академик Игорь Соколов. - Они позволили описывать и моделировать многие процессы окружающего мира и находить решения. А появившиеся в 50-х годах ЭВМ смогли быстро и эффективно справляться со сложнейшими уравнениями. Прорывы в ядерной физике и космонавтике связаны именно с этой вычислительной техникой.
Но принципиально важно подчеркнуть, что вся эта супертехника, по сути, является суперкалькулятором, только считающим с фантастической скоростью. Совсем иное дело нейросети, созданные по аналогии с мозгом человека. Но как мы до сих пор не понимаем, как работает наш мозг, также не понимаем, что происходит в нейросети. Хотя в их основе лежит довольно простое уравнение одного нейрона, но когда 500 миллиардов таких "простушек" объединяются в гигантские сети, никто не может сказать, какие там устанавливаются связи, как они вообще считают. Одно слово - "черный ящик".
Более того, чем больше с ним работают, тем больше у него выявляется изъянов. Вот только несколько простых примеров. Прежде чем выпустить ИИ в люди, его обучают на сотнях тысячах, а лучше миллионах примерах. И если в "учебнике" поменять всего один пиксель, то нейросеть примет тигра за медведя. А скажем, если человек наденет майку с изображением птицы, то назовет его птицей. А самый громкий ляп связан с применением ИИ в медицине. Это провал широко разрекламированной многомиллионной нейросети знаменитой фирмы IBM. Оказалось, что она ставит диагнозы и консультирует хуже среднего врача. После нескольких лет работы систему удалили с рынка.
Вывод: хотя ИИ и очень умный, но и он далеко не безгрешен, совершает ошибки. Можно ли их исправлять? Как залезть в черный ящик, не "разрушая" его?
- Сегодня мировой тренд - создание так называемого доверенного искусственного интеллекта, - сказал академик Арутюн Аветисян. - То есть разработать такие требования, которые в принципе не позволят выпустить в мир нейросеть, которая способна совершать ошибки. И тестировать эту технику перед началом эксплуатации. Если пройдет испытание успешно, то можно доверять. Для разработки таких аналогов ГОСТов в институте создан первый в России Центр доверенного искусственного интеллекта.
И, конечно, ученые обратили внимание на "больной" для общества феномен последнего времени, которое получило название "постправда". Этот информационный поток - фейки, ботофермы, информационные пузыри - намеренно конструируется для манипулирования общественным сознанием.
Конечно, на протяжении всей своей истории люди лгали друг другу, сплетничали и распространяли слухи. Но если раньше это явление было "домашним", то технологии ИИ выплеснули его в мир. Сегодня с помощью нейросетей можно очень быстро генерировать миллионы фейковых новостей, которые заполоняют информационное пространство, и под этим напором лжи нам все сложней отыскать истину.
Наука ищет способы остановить этот поток постправды. Парадоксально, но тот, кто ее породил, тот же с ней и борется. Такие фейки тоже создаются на основе нейросетей. Пока им под силу только довольно простые фейки, да и здесь они делают много ошибок.
- Но лгут не только авторы фейков, но и официальные СМИ, которые ведут информационные войны в интересах своих заказчиков. И лгут настолько изощренно, что порой даже матерый профи может попасть на удочку. Чтобы поймать лжецов за язык, нужны очень изощренные нейросети, - утверждает завотделом Интеллектуальных систем ФИЦ "Информатика и управление" РАН Константин Воронцов. - Это сложная задача, для решения потребуются совместные усилия программистов, лингвистов, психологов, социологов, политологов, журналистов, историков. В каждом браузере должен появиться анализатор медиаконтента, предупреждающий пользователя о недостоверной информации, токсичном контенте, использовании приемов манипуляции, и дающий ссылки на доверенные источники.