Среди основных задач, которые стоят перед законопроектом, - такие вопросы, как что считать российской моделью, кто виноват в ошибке ИИ, как маркировать контент и следить за выполнением требований и кому принадлежат авторские права. Кроме того, планируется отрегулировать использование ИИ в отраслях и сформировать понятийный аппарат, чтобы убрать неоднозначность трактовок.
Как пояснили в аппарате Григоренко, ключевая задача сейчас - это предотвратить риски от применения ИИ в "чувствительных" сферах, где цена ошибки особенно высока. В числе таких сфер: здравоохранение, судопроизводство, общественная безопасность, образование.
Особо отмечается, что распространять требования к ИИ на коммерческий сектор не планируется. Выбран подход "гибкого" регулирования, при котором не ограничивается свобода развития технологии, но снимаются возможные риски для граждан. Чтобы избежать несогласованности мер и нескоординированности действий, правительство взяло на себя задачу стать единой площадкой для взаимодействия органов власти, бизнеса, ассоциаций и выработки единого подхода к регулированию.
"Применение искусственного интеллекта становится все более массовым. Все острее встает вопрос о необходимости введения прозрачных "правил игры". В вопросе регулирования ИИ важно сохранять баланс. С одной стороны, стоит задача предотвратить возможные риски применения ИИ в тех сферах, где цена ошибки слишком высока. С другой стороны, важно не приостановить развитие технологии, не "задушить" ее правилами.
Мы предлагаем придерживаться гибкого подхода: ввести нормы применения ИИ в отдельных "чувствительных" сферах, таких как здравоохранение, образование, судопроизводство. Например, предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений. Это важно прежде всего для защиты интересов граждан. При этом вводить требования для бизнеса (за исключением объектов критической инфраструктуры) пока не планируется", - отметил вице-премьер Д.Ю. Григоренко.
Важным фактором при регулировании считает отсутствие ограничений для развития отрасли первый замглавы Комитета Госдумы по информполитике, глава РОЦИТ Антон Горелкин.
"Во время заседаний межфракционной рабочей группы в Госдуме часто спорили, нужно ли России жесткое, комплексное регулирование ИИ (например, по китайской модели). Правительство, судя по сегодняшнему заявлению, придерживается более гибкого подхода: объявлено, что требования к ИИ не планируется распространяться на коммерческий сектор. Это значит, что у отрасли не будет ограничителей, сдерживающих ее развитие, - тот самый вариант, который я прогнозировал и всегда за него выступал", - сообщил Горелкин.
Депутат отметил, что принципиально важным он считает то, на каких данных будет обучаться модель. Именно принадлежностью данных должна определяться принадлежность нейросети. Кроме того, Горелкин уверен в необходимости маркировать контент, созданный без участия нейросетей.
"Правительство обещает включить в законопроект описание требований по маркировке ИИ-контента, поставив точку в спорах о том, нужно ли маркировать нейрогенерацию или же, наоборот, что создано без участия ИИ. Как вы знаете, я придерживаюсь "органического подхода", ведь нейрослоп плодится в интернете не просто быстро, а лавинообразно", - подчеркнул Горелкин.
"Предложенный подход - это именно то, о чем просил рынок, с подтекстом "не мешайте нам работать". Заявление о том, что требования не будут распространяться на коммерческий сектор, звучит как музыка для любого бизнеса, который сейчас экспериментирует с ИИ, это прямой ответ на главный страх индустрии - быть задушенными регуляторикой по примеру Европы", - пояснил "РГ" Алексей Парфун, вице-президент АКАР, CEO, сооснователь Ai influence.
Эксперт отметил, что вопрос регулирования искусственного интеллекта сегодня назрел, так как технология и ее влияние на людей и общество в целом стали слишком масштабными.
"Позиция "ИИ - это просто математика" была актуальна 5-10 лет назад, когда мы говорили о нейросетях, распознающих котиков. Сегодня все иначе. Математическая формула не может в одиночку отказать миллиону человек в кредите за одну секунду, а алгоритм ИИ - может. Скорость и масштаб применения ИИ-систем таковы, что последствия одной ошибки или заложенного в модель смещения могут быть катастрофическими и затрагивать целые социальные группы. При этом мы до сих пор не можем со 100% уверенностью сказать, почему та или иная модель в одном случае дает гениальный ответ, а в другом галлюцинирует. Непрозрачность принятия решений современными нейросетями - фундаментальное отличие от классической математики, если мы не понимаем логику, мы не можем гарантировать безопасность и предсказуемость", - сообщил Алексей Парфун.