29.04.2019 20:14
    Поделиться

    Верующие в США заявили об опасности искусственного интеллекта

    В США религиозные организации выпустили декларацию, в которой выразили беспокойство по поводу опасности использования искусственного интеллекта (ИИ). Помимо верующих, многие задаются вопросами, так ли безобиден ИИ. Об ошибках принято заявлять открыто. Так, глава Сбербанка Герман Греф уже заявлял, что из-за ошибок ИИ были потеряны миллиарды рублей.
    JIRSAK/iStockphoto

    "Наиболее возможные потенциальные угрозы сегодня - это военное применение, - говорит Евгений Колесников, директор Центра машинного обучения "Инфосистемы Джет". - Например, дроны с распознаванием лица конкретного человека, которые находят нужную цель и могут произвести взрыв. При наличии взрывчатки и дрона можно буквально построить такое устройство у себя во дворе".

    В военной сфере ИИ уже давно принимает жизненно важные решения в отдельных видах вооружения, хотя стратегические решения все равно остаются за человеком.

    Дистанционное или запрограммированное управление каким-либо движущимся объектом, способным причинить вред и оснащенным функцией видеораспознавания, будь то дрон, машина или самолет, требует повышенного внимания со стороны разработчиков и программистов, слишком велика цена ошибки или преднамеренных действий, если их целью является причинение вреда. То же самое касается систем жизнеобеспечения, охраны, использования роботов в медицине.

    Есть и более насущные примеры, с которыми может столкнуться человек в повседневной жизни. Так, в случае с машинным обучением, которое используют поисковики и разработчики веб-приложений, ошибки могут вылиться в нарушения прав целых групп людей. Например, разработчикам Google пришлось просить прощения за ошибки, которые ИИ допускал при поиске изображений по запросам "горилла", "мартышка" и "шимпанзе" на английском языке. Скандал был связан с тем, что в подборку системы попадали люди с темным цветом кожи. Последовали обвинения в расизме. А генератор новостей компании Илона Маска OpenAI взялся выдавать фейковую информацию, которая выглядела весьма убедительно.

    Еще одна уязвимая категория - "Умные дома". Любой человек с простейшими навыками программиста может подключиться к управлению бытовыми приборами, светом и так далее. Более того, системы "Умный дом" от Amazon, Google и Apple предоставляют максимум функциональности, если включены функции голосовых запросов и видеонаблюдения. При всех преимуществах таких сервисов нельзя гарантировать то, что данные о пребывании дома будут сохранены в тайне. Если приватность является абсолютной ценностью для хозяина, ему необходимо отключить ряд функций, по сути делающих "умный дом" таковым.

    Пособником "взлома" "умного дома" стал голосовой помощник Siri. Сосед владельца просто попросил Siri открыть дверь с помощью iPad, лежавшего в гостиной и распознавшего его команду. "Умные дома" распознают владельцев по нескольким параметрам, есть также риск того, что в случае, например, болезни хозяина система не распознает его голос или неверно истолкует изменение внешности и просто не пустит в дом.

    "Когда мы вплотную перейдем к системам обеспечения правопорядка, работающим автономно, то любая ошибка в распознавании человека (если, например, система примет его за преступника) может стоить ему жизни", - заключил управляющий партнер Marketing Logic, эксперт в области Big Data и геомаркетинга Дмитрий Галкин. Разработчикам остается работать над тем, чтобы этого избежать.

    Поделиться