Не искусственные мозги, а свои должны быть
Георгий Бовт: Доверие к ИИ может привести к утрате навыков анализа информации
Георгий Бовт, политолог.
Георгий Бовт, политолог. / Андрей Семашко/russkiymir.ru
Одна из наиболее обсуждаемых проблем в связи с развитием искусственного интеллекта (ИИ) - это какие профессии он заменит и сколько убьет рабочих мест. И лишь в последнее время исследователи ИИ стали бить тревогу по другому поводу: главная опасность ИИ не в том, что он отберет у людей работу, а в том, что он сделает новые поколения тупыми и не способными к самостоятельному мышлению. В какой-то степени "злоупотребление ИИ" - это путь, по-научному выражаясь, к когнитивной атрофии.

Каким путем раньше шел исследователь? Да хоть бы и при написании курсовой или дипломной работы в вузе. Шел в библиотеку, изучал литературу по теме, следил за ходом мысли предшествующих исследователей, попутно учился критически оценивать источники, выстраивать причинно-следственные связи, проводить системный анализ, делать обобщения и выстраивать иерархические связи тех или иных явлений, а также выстраивать абстракции/сравнения. В процессе такого обучения мозг формирует определенные нейронные связи, которые отвечают за все эти навыки. Однако если не получить все эти навыки или, получив, затем перестать пользоваться, эти нейронные связи атрофируются. Это как с иностранным языком, выученным в детстве: если не пользоваться, то уровень быстро падает, практически до нулевого. Равно как можно провести аналогию с определенной группой мышц. Человеческий организм (мозг в том числе) всегда идет по пути наименьшего сопротивления. А лень, как известно, одна из движущих сил человеческого прогресса вообще. С оговоркой: прогресс для "ленивых" двигают те, кто вкалывает, в том числе творчески, умственно.

А теперь что происходит? Нужно лишь сформулировать вопрос - и встроенный уже в поисковики ИИ предоставит вам неограниченный набор готовых знаний или решений. Но вы уже не знаете, как они добыты, какие ошибки могут содержать, какие из них важные, а какие второстепенные (та самая иерархия новостей и информации вообще), какие законы стоят за теми или иными явлениями. От вас скрыт процесс анализа и синтеза, который стоит за добыванием этих знаний. Вам неведомы внутренние взаимозависимости тех или иных процессов. Стало быть, вы не сможете правильно выстраивать собственные прогнозы на основании полученных таких "квази-знаний", в лучшем случае пойдете путем механической экстраполяции. Ведь вам лишь предоставили готовые ответы - как в ЕГЭ.

Излишнее доверие к ИИ может привести к утрате навыков самостоятельного анализа информации

Исследователи обнаружили, что студенты университетов, использующие большие языковые модели (LLM) для выполнения письменных и исследовательских задач, испытывали меньшую когнитивную нагрузку, но демонстрировали худшие навыки рассуждения и аргументации по сравнению со студентами, использующими традиционные методы поиска. Также студенты, использующие LLM, фокусировались на более узком наборе идей, что приводило к более предвзятому и поверхностному анализу. Пользуясь ИИ, студенты не всегда даже осознают необходимость проверки ответов. Или же им не хватает времени или мотивации, чтобы ее провести. А многим просто недостает собственных знаний и опыта для оценки ответов ИИ.

Другой пример: пилоты, которые целиком полагаются на автопилот, со временем теряют навык ручного управления. Медики, особенно начинающие, использующие ИИ для диагностики, могут со временем утратить профессионализм. Водители, регулярно использующие навигацию, не только хуже ориентируются без нее, но у них снижается активность областей мозга, отвечающих за пространственную память.

Критическое мышление необходимо людям, чтобы распознавать в ответах ИИ ошибки и пропаганду

Также замечено: пользователи, к примеру, Google, реже нажимают на другие ссылки, "не копая дальше", если в результатах поиска сразу отображается сводка, созданная ИИ (такой поиск в этом году стал доступен и в России). Сгенерированный ответ ИИ выпадает не всегда, зависит от формулировки запроса. Это уже, например, отразилось на снижении интернет-трафика. Сжатые ИИ ответы на запрос для многих заменили традиционные результаты поиска. А зачем копать дальше, если - вот она, готовая выжимка. В ходе проведенного недавно в США исследования выяснилось, пользователи, получившие сразу сводку ИИ, переходили по ссылкам дальше в результатах традиционного поиска лишь в 8% всех посещений. Те, кто не сталкивался с ИИ-сводкой, продолжали поиск почти в два раза чаще. Важно и то, на каких источниках ИИ составляет свою справку. Во-первых, на открытых и бесплатных. Тогда как по-настоящему научная информация содержится на ресурсах, требующих либо платной подписки, либо специального допуска. Во-вторых, это "массовые источники". Типа "Википедии". Но писать, скажем, дипломную работу по "Википедии" - это сущая профанация. Также в сводках ИИ чаще, чем при обычном поиске, встречаются ссылки на правительственные или официальные сайты (их доля в выкладке при обычном поиске в Google в два раза ниже). Способствует ли это самостоятельной, тем более критической оценке полученной информации? Вопрос риторический. Иерархию информации ИИ выстроил за вас, при этом вполне может выдать за информацию пропаганду. В ходе исследования работы ИИ-поиска в Google также выяснилось, что, как правило, ИИ выдает довольно короткие сводки. Вас снова ведут по пути наименьшего сопротивления, ведь нынешние поколения не любят, не привыкли читать "длинные тексты". А само понятие "длинный текст" все время сокращается. Так вот, типичная (медианная) длина сводки ИИ в исследовании Google составляла скромные 67 слов (кажется, школьное сочинение и то больше бывает).

Критическое мышление, которое позволяет составлять собственную оценку информации, оспаривать ее и формировать собственное независимое суждение, было и пока (!) еще остается уникальным человеческим навыком, который ИИ не может полностью воспроизвести. Можно придерживаться "правила 30%", когда ИИ выполняет большую часть рутинной работы, около 70%, а люди сосредоточены на оставшихся 30%. Это гарантирует, что технологии поддерживают людей, а не заменяют их. Излишнее доверие к ИИ может привести к утрате навыков самостоятельного анализа информации. И тогда люди станут "безмозглыми" рабами ИИ.

Георгий Бовт
политолог
Поделиться