Искусственный интеллект научился располагать к себе людей

Искусственный интеллект (ИИ) уже умеет вести осмысленные беседы с пользователями, в частности, задавая наводящие вопросы или давая советы. К коммуникативным возможностям нейросетей теперь добавилось и умение завоевывать доверие людей.

Агенты ИИ - виртуальные помощники на основе нейросетей - могут учиться располагать к себе человека путем изменения своего стиля общения. К такому выводу пришли американские исследователи в области ИИ из Калифорнийского университета в Сан-Хосе, передает научный журнал Management Science.

"Человек может заслужить доверие других людей, обучаясь этому методом проб и ошибок. ИИ может действовать точно так же", - объяснил Ян Ву, один из авторов исследования.

Эксперимент строился следующим образом: два игрока - ничего не знающие про доверие нейросети - передавали друг другу "некоторую сумму денег".

"Первый может передать второму некоторую сумму, и если он это делает, то сумма значительно увеличивается. Тогда взамен второй игрок может передать первому любую сумму обратно", - уточнил кандидат физико-математических наук, научный сотрудник Института искусственного интеллекта AIRI Дмитрий Киселев.

С точки зрения поведения рациональных людей такая ситуация почти невозможна - игрок вряд ли станет делиться деньгами с другим, а тот в свою очередь не вернет полученную сумму. В реальности же люди, если доверяют человеку, то готовы отдать часть или даже полную сумму. Результатом эксперимента стало то, что нейросети через значительное количество партий начали доверять друг другу: делиться частью выигрыша и возвращать деньги.

"Для того, чтобы максимизировать выигрыш, игроки приходят к тому, что им выгодно делиться и доверять друг другу", - подчеркнул эксперт.

По его словам, в будущем выводы исследования можно будет применить на практике: например, ИИ-агенты могут использоваться для изучения общества и поведения людей, а также для конкретных прикладных задач, включая предсказания спроса и инфляции.

Вместе с тем существует и ряд рисков. Один из них связан с трудностями определения, действительно ли ИИ-агент заслуживает доверия или нет.

"То есть предложенные нейросетью рекомендации или факты будут выглядеть правдоподобно, но без гарантии достоверности", - сказала заместитель руководителя Центра практической информационной безопасности IT-компании Innostage Ксения Рысаева.