19.03.2026 19:16
Технологии

Правительство разработало набор правил для развития ИИ в стране

Правительство разработало набор правил для развития в стране искусственного интеллекта
Текст:  Олег Капранов
Российская газета - Федеральный выпуск: №59 (9895)
Правительственный законопроект об искусственном интеллекте (ИИ) опубликован для общественного обсуждения. Документ вводит рамочное регулирование применения ИИ в России. В частности, он впервые закрепляет на законодательном уровне само понятие искусственного интеллекта, устанавливает права и обязанности участников рынка и вводит обязательную маркировку контента, созданного с помощью ИИ. Эксперты отмечают, что все самое важное будет регулироваться подзаконными актами, которых пока нет, и опасаются, что даже такое мягкое регулирование может затормозить развитие отрасли в стране.
В коммерческом секторе обязательные требования по использованию ИИ не устанавливаются. / iStock
Читать на сайте RG.RU

"Развитие перспективных технологий, в том числе ИИ, является важным направлением работы Минцифры. При этом любая технология должна применяться исключительно с соблюдением прав и интересов граждан. Для этого министерство разработало проект федерального закона о регулировании ИИ", - сообщили в Минцифры.

Документ впервые закрепляет в законодательстве самое понятие "искусственный интеллект" и ряд смежных с ним терминов. Предлагается также ввести понятия суверенной, национальной и доверенной моделей искусственного интеллекта. При этом требования к системам ИИ зависят от степени их влияния на жизнь человека и общество.

Помимо требований к отрасли у участников рынка ИИ появляются и обязанности по отношению к тем, кто пользуется такими системами и продуктами, произведенными с использованием ИИ. Теперь граждане смогут оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Если использование нейросетей причинило вред, человек получит право на компенсацию - по общим правилам гражданского законодательства. Эти меры призваны защитить права граждан при автоматизированном принятии решений.

Разработчики моделей ИИ обязаны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Операторы систем ИИ должны тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов будут оперативно принимать меры по недопущению его неправомерного использования.

Эксперт Лукьянчиков назвал принципы работы с ИИ в школе

Авторы законопроекта полагают, что ответственность за противоправный результат должна быть распределена между разработчиком, оператором системы, владельцем сервиса и пользователем соразмерно степени вины.

В дилемме "что маркировать" выбор сделан в пользу маркировки контента, созданного при помощи ИИ. Теперь все такие материалы должны содержать специальную маркировку - предупреждение. Крупные соцсети обязаны проверять ее наличие, а при ее отсутствии самостоятельно маркировать или удалять контент.

С появлением закона об ИИ созданный нейросетями контент будет необходимо маркировать

"Искусственный интеллект уже используется повсеместно, поэтому важно установить понятные и прозрачные правила его применения. Для нас главное - соблюдение баланса между защитой интересов граждан и развитием технологий. В этой связи законопроект предусматривает установление отдельных требований для чувствительных сфер применения искусственного интеллекта, например, в госуправлении. При этом в коммерческом секторе обязательные требования по использованию ИИ не устанавливаются", - отметил вице-премьер - руководитель аппарата правительства Дмитрий Григоренко, курирующий эту работу.

Планируется, что документ вступит в силу с 1 сентября 2027 года, установив четкие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов. Однако у экспертов уже сейчас есть вопросы, связанные с применением норм закона. Например, идея о маркировке контента, созданного или измененного при помощи ИИ, в максимальном применении этой нормы будет означать, что любая фотография, сделанная на смартфон, будет маркироваться таким образом просто потому, что сегодня на большинстве смартфонов так или иначе применяются нейросетевые алгоритмы.

Журналист Капранов: Ошибка в том, что весь ИИ пытаются отрегулировать целиком

Есть свои опасения и у бизнеса. Мы получили амбициозный документ, который пытается решить правильные проблемы, но делает это с опасной для бизнеса жесткостью, отмечает Алексей Парфун, руководитель, сооснователь Ai influence, вице-президент АКАР.

"Авторы правильно понимают, что не все применения ИИ одинаково опасны. Статья пять предусматривает оценку рисков в зависимости от назначения технологии, вероятности вреда, степени автономности системы и влияния на юридически значимые действия, что очень логично. В США и Европе такого разделения нет, они пытаются регулировать все одинаково, что приводит к параличу инноваций. Нравится баланс между развитием и безопасностью. Статья четыре явно говорит о необходимости "создания условий для ускоренного развития искусственного интеллекта". Совершенно понятна задача ИИ - суверенитет как стратегическая цель. Если мы полностью зависим от OpenAI или Google, то любые санкции, любые политические решения могут отключить нам весь ИИ, этого мы допустить не можем", - отмечает Парфун.

Вместе с тем вызывает вопросы появление реестра "доверенных моделей ИИ". Парфун считает это своеобразным "бутылочным горлышком" для будущих внедрений и разработок. "Требование, чтобы все модели, используемые в государственных системах и критической инфраструктуре, были включены в этот реестр, звучит логично, но на практике же это означает централизованный контроль над всеми ИИ-системами, бюрократический процесс одобрения и риск того, что инновационные решения не пройдут проверку просто потому, что они новые. Фактически государство получает право вето над любой ИИ-системой", - поясняет эксперт.

Эксперты опасаются, что некоторые нормы закона станут "бутылочными горлышками" для развития искусственного интеллекта в России

Вызывают беспокойство и вопросы ответственности разработчиков ИИ-систем. В частности, закон говорит, что разработчик несет ответственность за результаты, полученные с использованием его модели, если он "заведомо знал или должен был знать" о возможности получения такого результата. Однако, по словам Парфуна, это последствия, которые не всегда возможно просчитать, и есть риск, что начнутся перестраховки.

"Как разработчик может знать все возможные способы использования его модели? Если я создал модель для анализа текста и кто-то использовал ее для создания дипфейков, я несу ответственность? Закон не дает четкого ответа. Это создает риск для разработчиков. Они будут бояться выпускать новые модели, потому что не знают, за что они могут быть привлечены к ответственности", - говорит Парфун.

/ РИА Новости

Закон затрагивает и вопросы инфраструктуры для ИИ. В частности, для доступности вычислительной инфраструктуры, необходимой для развития ИИ, правительство сформирует перечень центров обработки данных, создание и эксплуатация которых будет определяться специальным регулированием. Такой подход считает справедливым Игорь Дорофеев, руководитель Ассоциации участников отрасли ЦОД.

"С одной стороны, развитие ИИ стало вопросом национальной безопасности, которая может лежать вне коммерческих отношений. С другой стороны, если компания вложилась в ИИ-оборудование, которое кратно дороже, чем создание инженерной обвязки для него, то она, безусловно, заслуживает поддержки в своих операционных затратах", - поясняет он.

Исследование: Инфраструктурой для ИИ обеспечены только 9% компаний в стране

Дорофеев отмечает, что поддержка в рамках предлагаемого регулирования ориентирована на крупных платформенных игроков. Именно они и являются драйверами как технической мысли, так и экономики отрасли центров обработки данных (ЦОД).

"При том, что закон носит рамочный характер, есть некоторые неувязки в определениях, например, что считать "предлагаемыми для создания" ЦОДами и как избежать возможных злоупотреблений. Или как делить ЦОД по мощности, если там расположены и суперкомпьютер, и ординарное ИТ-оборудование. В правовом поле наконец-то стало появляться понимание, что классификация ЦОД - это не какая-то узкая и частная задача уровней инженерной инфраструктуры, а задача классификации ЦОДов по уровню критичности обрабатываемой информации. Предполагаю, что эти вопросы будут урегулированы как в рамках публичного обсуждения, так и подзаконными НПА, детализирующими требования", - говорит Дорофеев.

В целом эксперты позитивно оценивают появление отраслевого регулирования, которое стало необходимых на фоне растущего влияния искусственного интеллекта на самые разные аспекты жизни, но опасаются, что в случае принятия закона российские компании будут бояться инвестировать в ИИ и будут ждать, пока все требования будут четко определены в рамках подзаконных актов, которые к настоящему моменту еще не разработаны. "Пока они ждут, западные компании будут развиваться", - подытоживает Алексей Парфун.

Корреспондент "РГ" проверил на себе, как роботы справляются со своими обязанностями
Нейросети Минцифры