17.05.2020 18:38
    Поделиться

    Facebook запустила эмоционального бота

    Социальная сеть Facebook запустила чат-бот, который может сочувствовать и отвечать на вопросы. "РГ" разобралась, может ли данная технология появиться и в голосовых ассистентах, чтобы их общение стало более человечным.
    iStock

    Это невероятно интересная технология, но модель настолько велика, что для запуска, а тем более для обработки большого количества запросов потребуется много вычислительных мощностей, и возможно, в какой-то момент даже будет уже дешевле нанять людей для общения с пользователями, говорит Галина Альперович, исследователь в области машинного обучения в Avast.

    Кроме того, поскольку бот был обучен на постах Reddit, он может быть достаточно предвзятым и писать грубые сообщения - просто потому, что люди иногда оставляют такие комментарии в Reddit. Также этот бот может выдумывать факты, потому у него пока еще нет интегрированной базы знаний, на которую он мог бы опереться. "Но это общая проблема всех ботов, натренированных на статистических данных из прошлого. Это значит, что бот может предоставлять людям неверную информацию и вводить их в заблуждение.

    "Скорее всего большинство компаний предпочли бы использовать более простые, более однозначные, предсказуемые и дешевые чат-боты для общения со своими пользователями", - заключает Альперович.

    Проблема "человечности" голосовых помощников упирается в юридическую и этическую плоскости, а не технологическую, считает Денис Хоружий, технический директор компании iD EAST. "Сегодня уже можно создать убедительную имитацию реального диалога, в том числе и с сопереживанием, - говорит он. - Другой вопрос, что по-настоящему качественные алгоритмы так или иначе основаны на самообучении. Повлиять на них можно, но полностью подчинить нельзя. Поэтому очевидно, что нужна сложная система фильтрации и ограничений для контента, который будет создавать система. Иначе можно получить еще одного бота-нациста".

    Эксперт считает, что система должна самообучаться во многом на основе информации пользователей. "В теории она сможет генерировать новые знания и контент сверх того, что используется при обучении, - добавляет Хоружий. - Возникает огромный пласт вопросов, касающихся, в том числе, использования персональных данных. Условно, система может использовать в последующих диалогах данные из предыдущих. Но как можно гарантировать изоляцию данных в постоянно обучаемых нейронных сетях - пока непонятно".

    С тех пор как в 2016 году генеральный директор Microsoft Сатья Наделла объявил, что "чат-боты - это новые приложения", они превратились в тенденцию - сегодня их используют государственные организации, банки, ретейл, транспортные компании. "Хотя чат-боты еще не всегда могут заменить собеседника-человека, отношение к ним в обществе сложилось в основном положительное - люди склонны ценить их оперативность и обязательность, - утверждает Владислав Шершульский, директор по перспективным технологиям Microsoft в России. - Если с чем и есть проблемы, так это с эмоциональностью, точнее, с эмпатией - способностью сопереживать собеседнику. Она необходима для полноценного общения, но научить ей интеллектуального чат-бота нелегко. Дело в том, что учатся чат-боты на наших человеческих примерах и, следовательно, наследуют не только наши достоинства, но и недостатки. Не секрет, что конфликт как форма общения требует куда меньших душевных усилий, чем сопереживание, потому и встречается не так уж редко. Если хотите, чтобы чат-бот был чутким, к его созданию нужно подходить ответственно - учить не на всех доступных в Интернете беседах, а только на "лучших образцах", прививать основы морали и чувство долга. Как оказалось, создание ответственного социального чат-бота - задача не только техническая, но и этическая".

    Салават Ханов, основатель сервиса блокировки рекламы 1Blocker, уверен, что эта технология будет использоваться в голосовых ассистентах через несколько лет. "Вполне возможно, что встретим этого бота в кол-центрах поддержки клиентов", - добавил он.

    Поделиться