Поделиться
Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержится нецензурная лексика и оскорбления. Виртуальный собеседник обучается во время диалога с пользователем и черпает свой словарный запас из реплик собеседника, передает ТАСС.
Бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления. В настоящее время программа виртуального собеседника отключена.
В Microsoft утверждали, что в их новейшей разработке использованы элементы искусственного интеллекта, что должно было сделать программу особенно "умелой" в построении диалогов.