20.04.2021 15:36
Санкт-Петербург

Кто несет ответственность за ДТП в беспилотном автомобиле

Текст:  Николай Ситников (директор по развитию продуктов "Рамакс")
Российская газета - Экономика Северо-Запада: №84 (8435)
Искусственный интеллект самостоятельно разработал внутри себя алгоритм принятия решений. Но, как и у человеческого интеллекта, у AI не всегда есть возможность получить внешнее описание этого алгоритма. Процесс принятия решения самим AI не имеет описания в виде одного точного правила, которое бы ответило на вопросы, куда подставить значения и получить ответ.
/ iStock
Читать на сайте RG.RU

Важным фактором для успешного внедрения решений на основе искусственного интеллекта является доработка и адаптация законодательной базы. Деятельность условного предприятия и без того регулируется существующими регламентами. Замена человеческого труда на роботизированный (с применением искусственного интеллекта) несет риски, аналогичные замене группы сотрудников на конвейер или одного станка на другой. Некорректная замена несет за собой ЧП или даже масштабную катастрофу. Всем понятно, что делать в такой ситуации, исходя из текущих законов, и определить ответственного не составит труда.

Госуслуги позволят разрешать споры с таксистами и каршерингом без суда

Однако совершенно по-другому обстоят дела в ситуациях, когда имеет место передача ответственности. Например, водитель - человек, который отвечает за свои действия по закону, и государство минимизирует риски, осуществляя проверку его знаний при выдаче прав. Но если, допустим, я являюсь пассажиром в автотранспортном средстве, управляемом AI, то я уже не могу отвечать за действия робота-водителя. Так возникает серая зона правового поля. Поэтому до сих пор не существует автомобилей, не снабженных хотя бы аварийной системой рулевого управления. Тот, кто находится за рулем, по-прежнему несет всю ответственность.

Другой пример несет морально-этическую нагрузку. Например, мы можем предотвратить действия конкретного сотрудника, который принимает неадекватные решения, например, отказывает при устройстве на работу на основании цвета глаз соискателя. А что делать, если подобные странные решения принимает искусственный интеллект? Как действовать в таком случае? Машину нельзя лишить премии, ее невозможно уволить, на нее нельзя "надавить". Привычные нам методы управления не работают, и их необходимо менять. Это препятствует утверждению перехода от систем поддержки принятия решений (когда окончательный выбор осуществляется человеком) к повсеместному внедрению искусственного интеллекта.

Пассажир в машине, управляемой искусственным интеллектом, уже не отвечает за действия робота-водителя

Не могу не упомянуть проблему полноты и качества обработки данных, которая существует во всех крупных организациях. Решить ее в контексте применения искусственного интеллекта будет не легче и не быстрее, чем проблему культурного барьера. Дорогостоящие инициативы по диджитализации всех сфер жизни приводят к накоплению гигантских объемов информации, но эта информация не всегда является достаточно точной для обеспечения корректной работы искусственного интеллекта. Так, чтобы AI в нормальном режиме обрабатывал показания датчика, он должен иметь информацию о том, что именно он измеряет. Эта информация должна быть точной и предоставляться без ошибок. В оптимальном случае искусственный интеллект "догадается", что что-то не так, и включит оповещение об ошибке, при наихудшем раскладе - примет решение, которое приведет к поломке всей системы.

Санкт-Петербург Северо-Запад