Госструктурам могут ограничить доступ к зарубежному искусственному интеллекту

В Ассоциации юристов России разработана концепция федерального закона, регулирующего применение искусственного интеллекта в органах публичной власти и на объектах критической информационной инфраструктуры. Об этом сообщили "РГ" в пресс-службе АЮР. Документ направлен в межведомственную комиссию при президенте страны. Одно из предложений: запретить использовать в государственных структурах системы искусственного интеллекта, принадлежащие иностранным структурам.

"Комиссия АЮР по новым технологиям и правовому обеспечению цифровизации общества уже в декабре прошлого года подготовила концепцию законодательного регулирования, направив в рабочем порядке ключевые положения законопроекта заинтересованным органам госвласти, в том числе для учета на конференции "Путешествие в мир искусственного интеллекта", по итогам которой 3 января 2026 года президент Российской Федерации Владимир Путин дал поручения о подготовке правовых актов, регулирующих использование ИИ, и создании межведомственной комиссии по вопросам развития технологий искусственного интеллекта", - сказано в сообщении.

Предложения профессионального сообщества, экспертов и представителей органов власти были рассмотрены в ходе заседания комиссии АЮР по новым технологиям. По итогам заседания был подготовлен документ, 16 февраля законопроект направлен в межведомственную комиссию при президенте России.

Как сообщил "РГ" соавтор концепции - заместитель председателя правления Ассоциации юристов России Дмитрий Липин, в число основных положений законопроекта вошли требования о запрете использования в государственном секторе систем искусственного интеллекта, права на которые принадлежат иностранным лицам, а также запрет на применение систем искусственного интеллекта, противоречащих установленным Конституцией Российской Федерации принципам соблюдения прав, свобод и законных интересов человека и гражданина. Законопроектом также предусматривается необходимость получения подтверждения соответствия требованиям безопасности ФСТЭК и ФСБ России, предусмотрен подход к классификации систем ИИ по уровням риска.

"Вопрос о необходимости законодательного регулирования искусственного интеллекта в гражданском и коммерческом секторе остается открытым и, безусловно, должен предварительно обсуждаться с бизнесом и обществом, однако на сегодня имеется острая необходимость принятия закона, который будет регулировать применение систем искусственного интеллекта в сфере государственного управления и критической инфраструктуры. В первую очередь, потому что ИИ становится необходимым инструментом для повседневного применения в госструктурах, однако загрузка особо чувствительной информации в существующие сегодня на рыке системы таит в себе угрозу получения такой информации иностранными разведками и компаниями, действующими в недружественных юрисдикциях", - сообщил Дмитрий Липин.

Многие иностранные государства уже приняли законодательные акты, вводящие ограничения и требования к безопасности при применении ИИ на государственном уровне. Председатель комиссии Ассоциации юристов России по новым технологиям Станислав Пугинский отметил, что лидерами в этом направлении являются Европейский союз, США и Объединенные Арабские Эмираты. "Множество требований содержит законодательство ЕС. Среди них обязательными является независимый аудит высокорисковых систем до ввода в эксплуатацию, последующий мониторинг после развертывания. ЕС предусмотрел и обязательный публичный реестр систем ИИ высокого риска, включая системы в государственном управлении, правосудии, правоохранительной деятельности, социальных услугах. В свою очередь регулирование в США строится на обязательных ведомственных политиках и добровольных стандартах. При подготовке отечественной концепции мы учли наилучшие практики и попытались перенести их в законопроект с учетом российских особенностей, не вводя излишние и невыполнимые требования", - пояснил Станислав Пугинский.

Проектом федерального закона предлагается не только закрепление основ, принципов и ограничений использования систем искусственного интеллекта в сфере государственного управления, но и создание единого центра компетенций - автономной некоммерческой организации "Национальный центр при правительстве Российской Федерации по вопросам применения технологий искусственного интеллекта в органах системы публичной власти".

По мнению члена комиссии АЮР, вице-президента Гильдии российских адвокатов Елены Авакян, именно правительство Российской Федерации способно обеспечить формирование единого подхода к применению ИИ в государственном секторе, а также внедрение эффективной и прозрачной системы контроля и лицензирования, позволяющей создать необходимые условия для отечественных разработчиков.

Елена Авакян дала положительную оценку инициативе, особо отметив ее этическую составляющую: "Важной особенностью предлагаемого проекта федерального закона является то, что его действие не распространяется на вопросы разработки и применения систем искусственного интеллекта в коммерческих целях. Законопроект не затронет интересы российских и зарубежных высокотехнологичных компаний и обеспечит возможность развития соответствующих систем в тех сферах и отраслях, которые не несут угрозы для суверенитета, обороны и безопасности".