12.02.2026 19:41
Технологии

Валерий Выжутович: Как мир ищет подходы к регулированию ИИ

Текст:  Валерий Выжутович (политический обозреватель)
Российская газета - Федеральный выпуск: №32 (9868)
С правовым регулированием ИИ, особенно его генеративной версии, которая рисует, пишет и создает контент, пока что творится настоящая неразбериха. Мир только ищет подход. И судя по свежему аналитическому отчету от "Технологий доверия" и АНО "Цифровая экономика", глобальный тренд - это отход от жестких запретов в сторону либерализации.
Валерий Выжутович, политический обозреватель. / РГ
Читать на сайте RG.RU

Исследование законов 25 ведущих стран (включая Россию) показало: все склоняются к более гибким моделям. Идеалом считается комбинация саморегулирования отрасли, добровольных стандартов и общих правил ответственного ИИ. Жесткое регулирование предлагают оставить только для самых чувствительных сфер - госуправления, медицины и финансов, где цена ошибки слишком высока.

Авторы доклада "Генеративный ИИ: эволюция регулирования в мире" заметили интересный парадокс. Страны, которые раньше спешили ограничить ИИ жесткими законами, теперь вынуждены их смягчать. Причина проста: осознали, что такими барьерами можно запросто задушить инновации и отстать технологически на годы вперед. Правда, некоторые государства до сих пор идут по проторенному пути ужесточения. Видны разные стратегии. Например, ЕС постепенно отходит от громоздких директив к разъяснениям и руководствам по уже существующим законам. Цель - не связывать рынок по рукам и ногам, но сохранить контроль. А вот Китай, наоборот, последовательно ужесточает требования к разработчикам. Цель - тотальный контроль над рисками и максимальное общественное доверие. Но, как отмечают аналитики, такой подход ставит почти непреодолимые барьеры для мелких компаний и сильно давит даже на крупные, убивая конкуренцию.

Валерий Выжутович: ИИ не несет резкого роста увольнений и отказа от людей

Большинство же развитых стран (США, Британия, Япония, Южная Корея, Россия) пока избегают всеобъемлющих законов про ИИ. Вместо этого они фокусируются на базовых принципах безопасности. Детальные стандарты применяются точечно - к самым рискованным отраслям. Почему? Потому, что технологии меняются быстрее, чем пишутся законы. Слишком детальные нормы устареют еще до принятия, а принуждение к их исполнению потребует гигантских ресурсов при сомнительной эффективности.

В США картина двоякая: в финансах и медицине регуляторы закручивают гайки, а в остальных сферах - наоборот, ослабляют хватку. В России резких движений нет - это осознанная позиция, чтобы не создавать лишних барьеров для зарождающейся индустрии. Задача - найти баланс: остановить недобросовестное использование ИИ, но не затормозить технологическое развитие.

Мир только ищет подходы к правовому регулированию ИИ

ИИ стал главным героем "прикладной этики" - дисциплины, которую уже преподают в магистратурах ведущих российских вузов. В ответ на запросы появляются этические кодексы. В России такой кодекс приняли в 2021 году. Он задает общие правила, но есть нюанс: судя по сухому юридическому языку, его писали в основном правоведы, а философы, лингвисты и специалисты по этике почти не участвовали. В итоге документ фиксирует формальности, но мало отражает "гуманизацию" технологий.

Еще одна острая проблема - алгоритмическая предвзятость (bias). Это когда ИИ, обучаясь на исторических данных, может воспроизводить и усиливать человеческие стереотипы и дискриминацию. Например, алгоритмы подбора кадров могут необъективно оценивать кандидатов по полу или возрасту. ВОЗ даже призывает тестировать медицинские алгоритмы на эйджизм. Таким образом, технологии, претендующие на объективность, могут стать инструментом легализации несправедливости. Это особенно опасно при использовании ИИ в социально чувствительных сферах: при назначении выплат, одобрении кредитов, оценке благонадежности. Ключевой вопрос здесь: где та грань, за которой стремление учесть все потенциальные угрозы превращается в регуляторный тормоз?

Искусственный интеллект вмешался в наем IT-специалистов

Другой, более спекулятивный, но активно дискутируемый вопрос - правосубъектность ИИ. Споры о правах для роботов часто навеяны медийным ажиотажем. Но большинство экспертов считают это "головокружением от успехов". Приписывать машине волю, сознание или ответственность бессмысленно. Даже самая продвинутая программа не чувствует боли, эмпатии или моральной ответственности. Ответственность всегда должна оставаться за человеком - разработчиком, оператором или пользователем. Главная задача - найти золотую середину между технологическим прорывом и защитой прав человека. Есть риск превратить этику в набор красивых, но неработающих деклараций. Кодекс не будет эффективным, если он не встроен в реальные практики и культуру. Более того, этика ИИ в разных сферах - разная. Для военных это вопрос эффективности и безопасности, для соцработы - помощи людям, для журналистики - доверия к контенту. Вероятно, нужны не только общие принципы, но и отраслевые регламенты.

"Апгрейд" этических и правовых рамок - не прихоть, а стратегическая необходимость

В мире уже более сотни документов по этике ИИ. Закономерный вопрос: а применима ли "этика" к неодушевленной системе? Да, если понимать ее как профессиональную этику для создателей и пользователей ИИ.

Мы не можем предугадать все будущие вызовы, связанные с ИИ, но начинать работу нужно уже сейчас. Создание законов и норм - процесс долгий, требующий накопления опыта. Если его вовремя не начать, потом будет невозможно создать адекватные правила "с нуля". Так что "апгрейд" этических и правовых рамок - не прихоть, а стратегическая необходимость. Как предупреждал еще Станислав Лем, время наивной веры в технологии прошло. Нужен трезвый, взвешенный подход, учитывающий и огромный потенциал ИИ, и его серьезные риски. Чтобы в технологичном мире не потерять человеческое.

Валерий Выжутович: В разных областях должны быть свои регламенты применения ИИ
Нейросети