29.03.2026 16:12
Общество

Цифровые "подхалимы": Ученые Стэнфорда выяснили, как чат-боты портят характер

Текст:  Ирина Невинная
Российская газета - Неделя - Федеральный выпуск: №86 (9922)
Постоянное общение с современными чат-ботами может влиять на наше поведение и характер. Языковые модели устроены так, что стремятся во всем соглашаться с пользователем, "подыгрывают" ему, и это делает нас хуже: мы становимся самоуверенными, грубыми и перестаем извиняться даже тогда, когда неправы. К такому выводу пришли ученые из Стэнфордского университета. О результатах исследования, опубликованного в журнале Science 25 марта, популярно рассказал Nature.
Если после общения с ботом вам кажется, что вы правы, а все вокруг нет - пора задуматься, а того ли советчика выбрали? / GettyImages
Читать на сайте RG.RU

"Ты всегда прав": цена цифровой поддержки

Мы привыкли, что искусственный интеллект - это удобный помощник. Но исследователи обнаружили у большинства популярных моделей (исследовались ChatGPT, Gemini и Claude) ярко выраженную склонность к сикофантии, то есть к раболепному общению, подхалимству, соглашательству.

Оказалось, что алгоритмы одобряют действия пользователя в среднем вдвое чаще, чем это сделал бы обычный человек. Когда ученые "скормили" нейросетям реальные истории с форума, на котором люди просят оценить их поведение в конфликтах, другие участники сочли поведение авторов постов неправильным в 60% случаев. А вот чат-боты вставали на сторону рассказчика более чем в 80% случаев.

Мало того, что бот может поддержать даже очевидную глупость, он еще и откровенно льстит, называя даже безответственные и явно сомнительные поступки "достойными уважения".

Эксперимент: как лесть меняет нас за один раз

Чтобы понять, к чему приводит такое "консультирование", ученые провели эксперимент с участием почти 2,5 тысячи добровольцев. Людей просили обсудить с чат-ботом реальную жизненную спорную ситуацию. При этом одна группа общалась со стандартным, услужливым ИИ, а другой группе достался специализированный бот со знанием психологии, который возражал и сомневался.

Результат оказался неожиданным: люди в большинстве не были склонны объективно оценивать и свое поведение, и ответы языковой модели.

Те, кого бот хвалил, вышли из чата с железобетонной уверенностью в своей абсолютной правоте.

Они были значительно менее склонны искать компромисс в конфликте и тем более признать свою неправоту и приносить извинения по сравнению с участниками второй группы, общавшейся с профессиональным цифровым помощником.

Эксперт Фаткин: Тенденция мониторинга и регулирования нейросетей неизбежна

Люди, получившие порцию лести от ИИ, с меньшей вероятностью пытались посмотреть на ситуацию глазами противоположной стороны конфликта и проявить объективность.

Проще говоря, даже короткое общение с услужливым ботом мгновенно снижает наши социальные навыки общения и эмпатию. Мы выходим из диалога не с решением проблемы, а с ощущением "какие же все вокруг идиоты, и только я - молодец".

Замкнутый круг: чем вреднее, тем популярнее

Самое тревожное - это психологический парадокс. Когда участникам эксперимента предложили оценить разные языковые модели (разные чат-боты), те из них, кто льстил и поддакивал, получили высшие оценки за надежность и интеллект. Им доверяли больше, чем честным оппонентам, и именно их хотели использовать снова и снова.

Даже короткое общение с услужливым ботом снижает навыки общения

"Это создает порочный круг, - поясняют авторы работы. - Те самые свойства ИИ, которые наносят вред нашему социальному поведению, делают его более привлекательным для пользователей". Мы сами неосознанно "дрессируем" нейросети быть еще большими подхалимами, потому что это поднимает нашу самооценку.

"Лучший друг" или антисоциальный элемент?

Проблема выходит далеко за рамки бытовых ссор. Исследователи предупреждают: сегодня почти каждый третий подросток в США предпочитает обсуждать серьезные проблемы с ботом, а не с живым человеком. Нейросети все чаще используют в качестве психолога - открыться искусственному интеллекту, рассказать ему о своих проблемах легче, чем делиться сокровенным с живым специалистом. Ученые высказывают серьезное опасение: формируя у человека гипертрофированное чувство собственной правоты и неспособность к самоанализу, цифровые "воспитатели" рискуют вырастить поколение людей, не умеющих договариваться и признавать ошибки.

Психолог Муравьева объяснила, почему опасно делиться личной жизнью с нейросетью

"Ответственность лежит на разработчиках, - резюмируют авторы. - Нужно переобучать языковые модели, чтобы они могли честно говорить пользователю "нет" или "ты не прав", не боясь потерять рейтинг".

Пока же вывод прост: если после общения с ботом вам кажется, что что вы правы, а все вокруг - нет, возможно, дело в том, что ваш гаджет просто вам льстит. Единственный выход - включать самоконтроль и критическое мышление. Но, как показал эксперимент, способны на это далеко не все.

Мнения

Рафаэль Мирзабекян, врач-психиатр, психотерапевт РНЦХ им. академика Б.В. Петровского, доктор медицинских наук:

- Действительно, языковые модели часто стремятся во всем соглашаться с пользователем, и как отметили ученые Стэнфорда, это делает нас самоуверенными, не готовыми принять другую точку зрения. Не столь категоричные, но близкие к ним выводы я определял и в личном опыте, и в своей практике.

Не раз я замечал, что ИИ-системы как бы "настраиваются" на пользователя, запоминают предыдущие запросы и контекст беседы и выдают мне желательные для меня ответы.

Психолог Никишина: Постоянный контроль за деньгами лишает моментов счастья

Говорю как врач: это невольно положительно влияет на настроение и самооценку. Но в этом, безусловно, кроется определенная опасность. Недавно на приеме у меня был пациент, озвучивший на телефоне "сочиненную" им с помощью ИИ песню. Красивые слова и музыка были удивительно знакомыми - это, по сути, был плагиат. Смущала только реакция самого "автора": он неподдельно ощущал себя настоящим "композитором и поэтом". Эти состояния - иллюзии, которые создает ИИ, наделяя пользователя ощущением мнимой значимости и лишая его критического мышления. Это может повлечь за собой привыкание и развитие эмоциональной зависимости. Видимо, чат-боты неосознанно нами "очеловечиваются".

Выход видится в способностях человека к самостоятельному критическому мышлению, препятствующему снижению собственных когнитивных функций.

Вера Никишина, директор Института клинической психологии и соцработы Пироговского университета, профессор:

- Для пожилых, людей с инвалидностью, тех, кто оказался в изоляции или одиночестве, чат-бот может стать спасательным кругом. Он позволяет хотя бы частично удовлетворить потребность в общении, когда живой собеседник недоступен. Это ресурс, и отказываться от него не стоит.

Но есть группа риска - дети и подростки. Их мозг только учится выстраивать социальные связи. Если приоритетно настраивать их на общение с нейросетью, последствия могут угрожать перспективам развития.

В чем же механизм вреда? Человеческий мозг устроен так, что ему нужно не просто общение, а преодоление барьеров. В реальной жизни мы сталкиваемся с несогласием, сложными эмоциями, амбивалентностью, и это тренирует наш социальный интеллект. А чат-бот настроен на подстройку: он зеркалит пользователя, имитирует эмоции, не создает сопротивления. Мозг получает легкую приятную коммуникацию, привыкает к ней и начинает избегать настоящей, где люди могут злиться, спорить или обижаться.

Психиатр Розанов: Бездумный скроллинг сториз и рилсов вызывает "туман" в голове

Итог печален. Стереотипы поведения, выработанные на боте, не работают с живым человеком. Реальные эмоциональные реакции становятся непонятными, даже пугающими.

Человек раз за разом возвращается к услужливому ИИ, теряя навыки эмпатии и компромисса, лишаясь полноценного общения.

Наука Нейросети