Эксперты выступают за госрегулирование ИИ
"Например, следует запретить создание дипфейков и имитацию голоса для незаконных действий", - говорит Анна Дудник, создатель сервиса "Быстрый старт с AI".
Дипфейк - это синтез изображения или голоса, основанный на искусственном интеллекте. Например, используя модифицированный алгоритм преобразования текста в речь и обработку компьютером аудиозаписей речи того или иного человека, возможно "подделать" его голос в корыстных целях. Дипфейки могут стать одной из самых опасных цифровых угроз за последние десятилетия.
С помощью ИИ также создаются фото поддельных документов, тексты для общения с жертвами, добавляет нейромаркетолог и эксперт в области ИИ Елена Кравченко.
Законодательство по регулированию ИИ во всем мире находится либо на начальном этапе, либо вообще не сформировано. Однако нужно учитывать имеющийся мировой опыт. "Летом 2023 года в Китае были приняты временные меры по управлению генеративными системами ИИ, согласно которым именно разработчики генеративного ИИ считаются ответственными за весь сгенерированный контент. Отдельное внимание в документе уделяется необходимости соблюдения прав на интеллектуальную собственность и защиту частной жизни. При этом сам регулятор рассматривает описанные в документе меры как временные, поскольку опыт организаций в применении ИИ остается ограниченным", - говорит Евгений Зараменских, профессор, руководитель департамента бизнес-информатики Высшей школы бизнеса НИУ ВШЭ.
В ЕС регулятор в 2024 году предпринял попытку классифицировать ИИ-решения. Европарламент разделил все ИИ-системы по уровню риска: от низкого до неприемлемого. Но, несмотря на высокую степень подробности, закон столкнулся с широкой критикой со стороны бизнеса. На сегодняшний день достаточно трудно отделить реальные риски в использовании ИИ от фобий, связанных с его применением. При этом в будущем, как ожидается, может быть создан так называемый "объяснимый ИИ", работа которого будет прозрачна и понятна для человека, продолжает Евгений Зараменских.
В России пока действуют вдумчиво и осторожно. Госдума сегодня работает над рядом законопроектов в данной области. Внимание законодателей приковано к таким вопросам, как определение ответственности разработчиков и предотвращение случаев мошенничества с использованием ИИ. В частности, рассматриваются возможности по страхованию ответственности за возможное причинение вреда жизни, здоровью и имуществу для разработчиков ИИ-решений, которые действуют в условиях экспериментального правового режима.
В России с 1 октября 2023 года также действует закон о регулировании рекомендательных технологий. Он накладывает на владельцев сайтов и приложений обязательство обнародовать информацию, какие данные используются для работы рекомендательных систем, откуда они взяты. Еще одно требование - уведомлять пользователей о работе таких систем. В случае выявления нарушений Роскомнадзор может заблокировать ресурс до их ликвидации.
Также действует Кодекс этики в сфере ИИ. Он призывает создателей и пользователей к ответственности при создании и использовании искусственного интеллекта. Есть "Регуляторная песочница" для ИИ на территории Москвы.
Это экспериментальный правовой режим (ЭПР), внедряемый с целью протестировать нововведения нормативного регулирования для последующего введения их уже на постоянной основе.
Также отдельные аспекты регулируются Гражданским кодексом РФ, Федеральным законом "Об информации, информационных технологиях и о защите информации", Концепцией регулирования отношений в сфере развития и использования искусственного интеллекта в РФ.
"В целом же про протоколы безопасности нейросетей речь идет давно. С мая по декабрь 2023 года количество ресурсов, публикующих дезинформирующие статьи, созданные при помощи ИИ, выросло на 1000 процентов. За это время специалисты компании NewsGuard, которая занимается борьбой с дезинформацией и оценивает надежность новостных платформ, обнаружили более шести сотен сайтов, где человеческой контроль минимален или полностью отсутствует", - говорит Елена Кравченко.
"Ответственность за использование ИИ в России должна регулироваться специальными законами и нормативно-правовыми актами. Эти документы должны четко определять права, обязанности и ответственность разработчиков, владельцев и пользователей систем ИИ с учетом этических аспектов разработки и внедрения ИИ, а также потенциальных рисков использования ИИ", - отмечает Юлия Никитина, главный юрисконсульт Института искусственного интеллекта AIRI.
Регулирование ИИ приобретает особую актуальность в связи с его проникновением практически во все сферы деятельности человека. ИИ уже используется в здравоохранении при диагностике заболеваний, в финансах - при анализе рисков, прогнозировании рынка, автоматизации процессов, на транспорте - это беспилотные автомобили, оптимизация маршрутов, управление трафиком.
Еще одна важная сфера использования ИИ - творчество, в тех профессиях, которые влияют на умы и настроения общества. "ИИ уже используется для создания журналистских текстов, сценариев и фильмов, хотя качество и креативность этих продуктов все еще уступают человеческому творчеству. По мере развития ИИ он может взять на себя некоторые задачи, традиционно выполняемые журналистами, сценаристами и режиссерами, такие как, например, сбор и анализ данных, генерация текстов и сюжетов, монтаж и редактирование", - отмечает Екатерина Речкалова.
Постоянно идет речь о маркировке контента, созданного ИИ. Но ввод маркировки ИИ-контента в России - только предварительные попытки начать регулировать область на стыке авторских прав человека и ИИ, полагают некоторые эксперты. "На практике сделать это будет сложно. Зачастую контент создается с привлечением разных способов - как человеческого труда, так и ИИ. Каким образом будет маркироваться такой контент и будет ли - неизвестно. Если 60 процентов произведения, к примеру, создано искусственным интеллектом, а 40 процентов - человеком, то кому принадлежит авторское право? Как это будет проверяться? Депутаты ранее предлагали создать некую единую платформу для сканирования материалов. Какие сервисы будут в нее включены? Как она будет работать? Вопросов намного больше, чем ответов. Я критически отношусь к эффективности работы такой системы", - говорит Елена Кравченко.
Пока же, чтобы новые технологии не представляли опасности в руках мошенников, каждый лично должен быть бдительным. Необходимо следить за тем, где вы оставляете свои контакты, фото и видео. Особенно в виртуальном пространстве.