Сергей Зубков, отвечая на вопросы журналистов в ходе встречи, отметил, что, по его мнению, ИИ проник во все сферы жизни и существенно влияет на многие общественные отношения. Адвокатура не может игнорировать это. Возникает много правовых вопросов применения искусственного интеллекта. Все больше и больше человеческая жизнь может зависеть от решения машины, отмечают в адвокатуре. И, кстати, не только в ней. При этом, подчеркнул Сергей Зубков, как ни странно, у человека есть иллюзия, что машина не ошибается и ей можно доверять. Однако, отметил он, есть много примеров, как машины допускают ошибки, и это приводит к очень неприятным последствиям. В числе таких примеров Сергей Зубков назвал примеры со штрафами, выписываемыми ГАИ, когда, например, фигурка, которая висит над лобовым стеклом машины, оценивается искусственным интеллектом как непристегнутый пассажир.
Надо пояснить, что пару лет назад в СМИ появились сообщения, что в Челябинской области полиция якобы оштрафовала водителя грузовика, так как камера приняла игрушку обезьянки в машине за непристегнутого пассажира. В Главном управлении МВД России по Челябинской области тогда сообщение опровергли, никто водителя не наказывал. При этом факт, что умная камера отреагировала на обезьянку, был. Но в госавтоинспекции проявили внимательность и заметили подвох.
Однако факты, когда ошибки умных камер превращаются в штрафы, тоже есть. Например, минувшим летом корреспондента "РГ" умные камеры "обвинили" в том, что пассажир был не пристегнут ремнем безопасности. "Нарушителем" оказалась четырехлетняя дочь журналиста, сидевшая в детском кресле. Штраф был успешно оспорен. Но случай показательный: ошибки случаются. Человеческая рука порой штампует не глядя заявки искусственного интеллекта на наказание водителей.
Порой такие дела доходят до высших судебных инстанций, и только там замечают ошибку ИИ, продолжают в адвокатуре. Важно, чтобы этого не происходило. Но если штраф вынесен, необходимо упростить для водителя процедуру исправления ошибки. В этом могут помочь четкие алгоритмы. Каждый должен знать, на какие кнопки нажимать, чтобы не платить лишнего.
Также важно проверять результаты, выданные искусственным интеллектом по заданию адвоката, считает Сергей Зубков.
Еще один аспект, на котором остановился вице-президент ФПА РФ, - сохранение адвокатской тайны при использовании ИИ. Когда информация передается ИИ на разные серверы, есть риск несанкционированного использования загруженной информации, в связи с чем встанет вопрос об ответственности за такое использование.
Сергей Зубков рассказал и о преимуществах использования искусственного интеллекта в работе адвоката. Ведь роботы могут не только ошибаться, но и помогать. Во-первых, плюсом является высокая эффективность ИИ при обработке большого объема информации, когда требуется собрать какие-либо сведения о правовом регулировании по тому или иному вопросу, судебную практику. Следующий момент, который активно применяется в практике, - подготовка шаблонов документов. При этом, отметил Сергей Зубков, есть категории дел, в которых необходимо сформировать индивидуальную правовую позицию, которая может быть сложной, и типовые категории дел, например, взыскание задолженности по коммунальным платежам, где допустимо использование ИИ для расчета задолженности и т.д. Проще говоря, когда речь о подсчетах, роботам и калькуляторам нет равных. Но когда надо думать, то здесь человеку лучше использовать собственные мозги. Их никто не заменит. Это доказанный факт.
В то же время, обратил внимание Сергей Зубков, существует вопрос о том, насколько допустимо передавать ИИ персональные данные и как согласовывать такую передачу с доверителем. Судебная практика по данному вопросу неоднозначна.
Резюмируя, Сергей Зубков отметил, что в современных условиях необходимо изучать возможности ИИ, следить за нормативным регулированием в этой сфере. Адвокат будет терять конкурентное преимущество без использования возможностей ИИ и без знания того, что может быть использовано против него и его доверителей. Главное, на что необходимо ориентироваться, по словам Сергея Зубкова, - чтобы судьба человека не была в руках машины, то есть за любое решение машины должен нести ответственность человек, он должен контролировать решение ИИ.