Несмотря на скепсис Кейва, трудно переоценить тот фурор, который произвел новый алгоритм искуственного интеллекта (ИИ) ChatGPT, умеющий развернуто отвечать на вопросы, создавать рассказы и стихи, в том числе копируя стиль конкретного автора, и даже программировать.
О связанных с развитием нейросетей рисках предупреждал, например, патриарх американской внешней политики Генри Киссинджер. В эссе на эту тему он отмечал, что "ИИ, являясь продуктом человеческой изобретательности, теперь постепенно стирает главенство человеческого мышления". "Он исследует и начинает разбираться в самых разных аспектах существования мира гораздо быстрее нас", - указывал экс-госсекретарь, добавляя, что ИИ способен делать это "способами, которые не доступны нашему пониманию". Киссинджер призывал уделять повышенное внимание этому вызову, избегая как беспечности при внедрении ИИ, так и слишком жесткого регулирования.
На фоне резонанса вокруг ChatGPT в США развернулись горячие споры о вызовах, связанных с новой технологией. Как отмечает газета The New York Times, столь сообразительные нейросети могут произвести революцию в политическом устройстве страны и повлиять на ее демократические институты, заменяя собой людей. Как указывает автор, алгоритм уже сейчас способен писать статьи для СМИ, посты в соцсетях, комментарии к ним, а также правдоподобно имитировать запросы конгрессменам от избирателей или письма в редакцию от читателей. Причем делать это в количествах, недоступных для человека.
Сама по себе проблема ботов и автоматических комментариев к статьям не нова - в последние годы это стало головной болью для различных информационных ресурсов. Это использовалось и для попыток влияния на политические процессы в США. Несколько лет назад в Федеральную комиссию по связи предположительно поступило около миллиона автоматически сгенерированных комментариев к предложениям о регулировании контента в интернете. В ответ СМИ и соцсети разработали различные инструменты для выявления и блокирования такого контента, а также генерирующих его учетных записей.
Но новый алгоритм способен не просто заваливать широкий спектр адресатов однотипными сообщениями, а подбирать содержание текста под каждого конкретного получателя с учетом его личных взглядов и предпочтений. И делать текст настолько похожим на написанный человеком, что отфильтровать его будет гораздо сложнее.
Как отмечает The New York Times, алгоритм уровня ChatGPT, который "снабдят актуальной информацией, способен точечно подбирать ключевых конгрессменов или инфлюэнсеров по каждой теме, находить уязвимые места в законотворческом процессе и безжалостно использовать их - создавать докладные записки и электронные письма, проводить масштабные информационные и PR-кампании, вести политический торг". Используя имеющиеся в изобилии открытые данные и высказывания ИИ сможет склонять сомневающихся политиков к какой-либо точке зрения качественными аргументами.
В исполнении людей все это в США называется лоббизмом. Как отмечает автор, качество генерируемых ChatGPT текстов уже достаточно для выполнения многих задач лоббистов. Осталось скрестить это с инструментами выбора лиц, на которых нужно оказать влияние, что тоже вполне под силу ИИ - и процесс может выйти на совершенно иной уровень.
Развитие таких механизмов, как предрекает автор, создает и инструменты для злоупотреблений через нейросети, что "позволит использовать уязвимые места в социальных, экономических и политических системах с невероятными скоростью и размахом".
Указанный ИИ был представлен в конце 2022 года и за пару месяцев стал одной из самых обсуждаемых тем как в США, так и в других странах. Компания Microsoft заявила, что вложит 10 миллиардов долларов в стартап, создавший ChatGPT. Как отмечает агентство Reuters, политики и предприниматели на стартовавшем Всемирном экономического форуме в швейцарском Давосе взахлеб обсуждают перспективы применения новой технологии - от военных целей до революции в сфере маркетинга. Действительно, если развивать заложенную в статье The New York Times мысль, то что мешает использовать такие алгоритмы и для внешнеполитических целей, например, кампаний по влиянию на обстановку в других государствах или вмешательства в выборные процессы. Пока ChatGPT работает на английском языке, но понятно, что появление аналогичных инструментов на других языках - дело времени.
Как указывают многие пользователи ChatGPT, пока алгоритм не идеален и порой может выдавать глупые ошибки, но в целом уровень осознанности искусственных текстов впервые подошел столь близко к возможностям человека.
Попытки создания регулирования в сфере ИИ предпринимаются в США примерно с середины прошлого десятилетия, но пока находятся в состоянии зародыша. В 2018 году властями США была сформирована специальная комиссия, которая на протяжении трех лет изучала проблему с разных углов. В итоговом документе авторы пришли к выводу, что США не готовы к конкуренции в этой сфере с Китаем, порекомендовав существенно нарастить темпы и финансирование разработок нейросетей. В частности, предлагалось ежегодно удваивать инвестиции в эту сферу и к 2026 году довести их до 32 миллиардов долларов в год. Также в документе звучал призыв активнее привлекать собственные и зарубежные кадры, финансировать их обучение.
В октябре 2022 года Белый дом представил Акт о правах человека в эру ИИ. В нем предлагается при внедрении нейросетей гарантировать американцам их безопасность и эффективность, обеспечить защиту от дискриминации со стороны алгоритмов и безопасность личных данных, проводить информирование и предлагать человеческие альтернативы. Вместе с тем, документ носит рекомендательный характер, а законодательство в этой сфере в США практически не развито.