Доверенный искусственный интеллект станет ключевым IT-направлением в 2025 году
Выступая на открытой конференции ИСП РАН, заместитель министра цифрового развития РФ и президент Академии криптографии Александр Шойтов рассказал, что в течение 2024 года к консорциуму для исследований безопасности технологий искусственного интеллекта присоединилось 9 организаций, а январе 2025-го в него вступят еще 15 компаний, научных и учебных организаций, занимающихся ИИ-разработкой. Сегодня в рамках консорциума сформировано 6 рабочих групп, занимающихся нормативным регулированием в сфере искусственного интеллекта, тестированием ИИ-технологий на предмет атак, доверенными технологиями ИИ, безопасной ИИ-разработкой, обезличиванием больших данных и ИИ в критической информационной инфраструктуре.
Консорциум был создан в мае 2024 года при поддержке Минцифры. В него вошли АНО национальный технологический центр цифровой криптографии" (НТЦ ЦК), Академия криптографии РФ и Институт системного программирования им. В.П. Иванникова Российской академии наук (ИСП РАН).
"Нам надо максимально быстро внедрять перспективные технологии, такие как искусственный интеллект. Выстраивать свою работу, чтобы с одной стороны обеспечить безопасность, с другой не стоять на пути у прогресса. Именно поэтому мы собрали на одной площадке разработчиков ИИ, ведущие компании в сфере информационной безопасности, научное сообщество и федеральные органы исполнительной власти, включая регуляторов", - заявил Шойтов.
Развитие кибербезопасности, внедрение практик разработки безопасной разработки программного обеспечения и вопросы создания доверенных систем искусственного интеллекта стали главными темами открытой конференции ИСП РАН.
В России первый ГОСТ по безопасной разработке ПО был принят в 2016 году, а в 2024 появилась новая редакция, подготовленная при участии "Лаборатории Касперского", Positive Technologies, "ИнфоТеКС" и других компаний. Предполагается, что она вступит в действие с 1 января 2025 года.
"Безопасная разработка подразумевает, что на всех этапах - от дизайна системы, до ее сопровождения - должны использоваться инструменты статического и динамического анализа разного уровня, в зависимости от того, какой уровень доверия и безопасности вы хотите обеспечить. В российской регуляторике есть 6 уровней доверия. "В данном случае слово "доверие" однозначно сопоставляется со словом "безопасность", - говорит директор ИСП РАН Арутюн Аветисян. - Теперь появилось новое технологическое направление - искусственный интеллект. Но если вы посмотрите на стратегию развития искусственного интеллекта, документ подписанный президентом, то вы увидите, что там под словом "доверие" понимается более широкая история. Это безопасность, в ее полном объеме, а также "доверие" в его социогуманитарном аспекте. Потому что мы видим, как ИИ-технологии начинают влиять на людей, на общество, знаем примеры негативного влияния, манипуляций людьми. И эта составляющая тоже очень важна".
При этом, по словам Аветисяна, в РФ пока нет юридического документа, который определяет такое понятие как доверенный искусственный интеллект: "Он только создается. К концу 2024 года ФСТЭК (Федеральная служба по техническому и экспортному контролю - Прим.ред.) выставит первые требования, после чего они начнут попадать в регуляторику. В том, что касается безопасности, это будут требования ФСТЭК, а в том, что касается "доверия", как гуманитарной сферы, тут уже свои требования будет выдвигать Роскомнадзор и другие организации".