В своем посте в MAX Володин отметил, что в СМИ появляется все больше сообщений о том, что искусственный интеллект иногда дает советы, которые не помогают людям, находящимся в затруднительной ситуации, а напротив, усугубляют ее. Несколько подобных случаев вызвали общественный резонанс в США, что вынудило разработчиков известной нейросети предпринять меры для исправления ситуации. Спикер добавил, что теперь они собираются встроить в свою модель следующие функции: родительский контроль для дополнительной фильтрации информации; возможность добавления контакта доверенного лица, с которым бот свяжется в экстренных ситуациях; прямой вызов экстренных служб.
Такие меры, по оценке парламентария, необходимы, чтобы предотвратить негативные последствия использования нейросетей. Это надо сделать, не дожидаясь трагедий, заявил председатель Госдумы.
"Происшедшее показывает - излишняя цифровизация, отсутствие контроля могут нести опасность и вред, - считает Володин. - Далеко не на все вопросы можно и нужно искать ответы в нейросетях".
Он напомнил, что ИИ не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы.
Вопросы безопасности и защиты граждан от негативных последствий использования нейросетей требуют отдельного внимания и обсуждения, считает спикер. Вопросы внедрения технологий ИИ - включая риски его использования - планируется детально рассмотреть в Госдуме в ноябре, анонсировал Володин.