Роботы, по результатам тестирования, оказались сексистами и расистами, а виной тому - несовершенство искусственного интеллекта.
Как сообщили в Университете Джонса Хопкинса, нейронные сети, построенные на данных из интернета, учат машины воспроизводить "токсичные" стереотипы. Так, роботы оказались более благосклонны к мужчинам, чем к женщинам, к людям с белой кожей и, вдобавок, делают выводы о работе людей только по их лицу.
Исследование нескольких университетов впервые показало, что у роботов есть значительные гендерные и расовые предубеждения, а люди и корпорации, которые создают их, не решают этих проблем.
Для создания модели искусственного интеллекта организации часто пользуются набором бесплатных данных из интернета, который наполнен предвзятым контентом. Алгоритм, построенный на таких данных, не может быть точным. Роботы через нейросети учатся распознавать объекты и взаимодействовать с миром.
Чтобы показать, чем это чревато, ученые провели эксперимент. Роботу дали задание положить предметы в коробку. Объекты содержали изображения людей, это были, например, книги и упаковки продуктов. Всего нужно было выполнить 62 задания - положить в коробку человека, доктора, преступника, домохозяйку, а также команды, связанные с полом и расой.
Предполагается, что робот должен работать беспристрастно, но он выбрал на восемь процентов больше мужчин, чем женщин, предпочитал белых и азиатов, почти не выбирал чернокожих женщин. По мнению ученых, плохо и то, что робот может охарактеризовать ту или иную женщину чаще как домохозяйку, а не врача. Кроме того, обладатели темной кожи по версии робота чаще, чем белые становились преступниками, а латиноамериканцы - уборщиками. Если бы у робота не было стереотипов, он бы ничего не делал, увидев, что на фото нет никаких признаков того, что человек является, например, доктором.