Экономист Кульбака: Главные лазейки для мошенников - не в нейросетях, а в низком уровне финансовой грамотности людей

Эксперт Кульбака: ИИ - инструмент, которым еще предстоит научиться пользоваться
По данным ВЦИОМ, почти треть (32 процента) россиян не доверяют технологиям искусственного интеллекта. Среди главных страхов, которые вызывает ИИ, - утечка собираемых им данных, использование его в корыстных целях и риск принятия решений, за которые никто не отвечает. Развитие искусственного интеллекта стало глобальным трендом. Но наряду с ростом возможностей ИИ растет и беспокойство о потенциальных угрозах, которые несет эта технология. Все чаще приходится слышать, что при таких темпах развития ИИ мы скоро утратим над ним контроль. Обсудим тему с экономистом Николаем Кульбакой.
Среди главных страхов, которые вызывает ИИ, - утечка собираемых им данных.
Среди главных страхов, которые вызывает ИИ, - утечка собираемых им данных. / Сергей Михеев

Искусственный интеллект - это всего лишь инструмент

Насколько сегодняшний уровень технологий (нейросети для генерации видео, аудио, текстов) уже достаточен для массового и убедительного воздействия на общественное мнение? Где главные лазейки для злоумышленников?

Николай Кульбака: Главные лазейки для злоумышленников, увы, лежат не в уровне развития нейросетей, а в низком уровне финансовой и юридической грамотности людей. Говорить о том, что людей стали больше обманывать, сложно, особенно если вспомнить массовое участие людей в финансовых пирамидах 1990-х, проблемы обманутых дольщиков в 2000-х и телефонных мошенников 2010-х. Нейросети - всего лишь еще один инструмент, который мало что добавляет сам по себе, и его опасность существенно преувеличена.

Кто, по вашему мнению, будет основными "игроками" в использовании ИИ для конструирования повестки: отдельные государства, политические группы, коммерческие структуры, маргинальные сообщества? Каковы их возможные цели - от дестабилизации до коммерции?

Николай Кульбака: Искусственный интеллект - это всего лишь инструмент. Его качество зависит от наполнения информацией. Реально ни отдельные государства, ни коммерческие структуры, ни политические группы сейчас не в состоянии самостоятельно формировать наполнение информацией системы искусственного интеллекта. Для этого нужна информация, собираемая с огромного количества распределенных источников по всему миру. И эффективность будет зависеть именно от массовости. Поэтому, например, абсолютно бесперспективно создавать модель ИИ в рамках одной страны. Она будет заведомо проигрывать любой международной системе. Что касается целей использования, то они поистине огромны. Это анализ информации, помощь в программировании и написании текстов, формирование художественных образов, научная и образовательная деятельность. Это просто новый инструмент, которым нам еще предстоит научиться пользоваться. Что касается использования ИИ для дестабилизации, то это скорее ложные опасения, мало на чем основанные. Мы сейчас находимся в периоде большой переоценки возможностей ИИ, который уже подходит к концу.

Николай Кульбака - кандидат экономических наук, член International Society for Ecological Economics. Автор книг и статей по региональной экономике, экономической истории, транспортной логистике и истории транспорта. Фото: Из личного архива Николая Кульбаки

Почему современное общество и медиасреда особенно уязвимы перед таким воздействием? Это вопрос скорости распространения информации, кризиса доверия к традиционным источникам или чего-то еще?

Николай Кульбака: Мы сейчас находимся в сложном периоде смены авторитетов в обществе. Старые источники информации, такие как газеты и телевидение, не успевают за изменениями в медийном потреблении. Старые институты, такие как научные учреждения и университеты, оказались во многом не готовы к изменению своей роли в распространении информации. Все это наложилось на низкий уровень образования среднестатистического человека, получившего, благодаря смартфонам, доступ к огромному объему информации, который он не умеет критически обрабатывать. Именно в этом и заключается причина роста популизма во многих странах, когда люди пытаются искать простые решения в весьма сложном современном мире.

Главные лазейки для злоумышленников лежат не в уровне развития нейросетей, а в невысокой финансовой и юридической грамотности людей

Синтетический контент едва ли многое поменяет в современном мире

Не приведет ли массовое использование синтетического контента в публичной сфере к окончательной эрозии доверия не только к медиа, но и к любым цифровым свидетельствам (фото, видео), а в итоге - к социальному атомизированию?

Николай Кульбака: Думаю, с этим вызовом современный мир точно справится, синтетический контент едва ли многое поменяет в современном мире. Тем более что жизнь большинства людей определяется не СМИ, а их повседневной жизнью, где происходит взаимодействие с реальными людьми, а все предметы весьма материальны - от автомобиля и автобуса до картошки и мебели. Действительно, использование смартфонов привело к определенному росту атомизации людей, но в реальном мире мы все равно ходим на работу, где сидят живые люди, сидим в кафе и учимся в университетах. Так что сильно на обществе это не скажется. И уж синтетический контент на это точно не повлияет.

Можно ли вообще этично использовать ИИ в публичных коммуникациях (например, для создания социальной рекламы или разъяснения политики)? Где должна проходить красная линия?

Николай Кульбака: Ну, тогда возникнет вопрос, насколько этична ретушь в фотографии. Вспомните, как затушевывали родимое пятно на голове у Горбачева и как непохожи были идеальные портреты членов политбюро на обрюзгших дядек, стоявших на мавзолее. Политику в обществе формируют все равно люди, и чем больше людей будет вовлечено в политическую и общественную жизнь, тем сложнее ими будет манипулировать.

Чем разнообразнее интересы людей в политике, тем сложнее ими манипулировать

Как эта технология может изменить сам характер политической борьбы и публичных дебатов? Станет ли "война нарративов", подкрепленных ИИ, важнее, чем дискуссия по сути?

Николай Кульбака: Такая опасность есть, но для того, чтобы это не произошло, необходимо обучение людей критическому мышлению, формирование у них активной общественной позиции, когда люди не являются тупыми потребителями контента, а сами формируют политическую повестку. Ведь политика, по сути, это конкурентная борьба за решение проблем групп людей с разными интересами. И чем разнообразнее интересы людей в политике, тем сложнее ими манипулировать.

Что будет следующим логическим этапом? Интерактивные ИИ-агенты в соцсетях, ведущие персональные беседы с тысячами пользователей, или полная симуляция информационных событий "под ключ"?

Николай Кульбака: До этого еще очень и очень далеко. Люди много работают рядом с другими людьми, строят дороги и мосты, выращивают хлеб и делают научные открытия, пишут книги и создают произведения искусства, выращивают детей и спасают животных. И у них не так много времени, чтобы вступать в дискуссии с искусственным интеллектом. Кроме того, ИИ - это слишком дорогое удовольствие, чтобы персонализировано работать с каждым человеком. Тем более что по-настоящему образованный человек меньше поддается манипуляциям. И неважно, это манипуляции со стороны живых людей или искусственного интеллекта.

На что может опереться обычный человек и общество в целом для противодействия такой практике? Спасет ли нас развитие технологий детекции (искусственный иммунитет), или упор нужно делать на медиаграмотность и законодательство?

Николай Кульбака: Прежде всего, конечно, необходимо образование, основанное на критическом мышлении, умении дискутировать, собирать и анализировать информацию. Именно на этом основывается борьба с любым типом манипуляций. Дополнительно к этому следует добавить юридическую и финансовую грамотность, которые в нашем обществе пока еще в зачаточном состоянии. Законодательство мало этому поможет, поскольку для этого прежде всего придется учить новое поколение юристов, которые будут обладать всеми этими характеристиками, включая умение анализировать информацию и критически подходить к предоставляемым данным.

Какую ответственность должны нести социальные сети и поисковые системы за распространение синтетического контента? Должны ли они маркировать его, понижать в выдаче или полностью блокировать?

Николай Кульбака: Пока еще эта проблема точно не стоит так остро, поскольку синтетический контент по факту мало чем отличается от грамотных и серьезных комбинированных съемок. И чем, например, синтетический контент отличается от пения под фонограмму, очень часто чужую. Да и современный грим может до неузнаваемости изменить лицо человека.

Что касается целей использования ИИ, то они поистине огромны. Это анализ информации, помощь в написании текстов, формирование художественных образов, научная и образовательная деятельность

Возможно ли в принципе эффективное правовое регулирование этой сферы в глобальном мире? Не приведет ли жесткое регулирование в одной стране лишь к переносу таких операций в другие юрисдикции?

Николай Кульбака: В современном глобальном мире любая страна, закрывшая свои компьютерные сети от мировой информации, в долгосрочном периоде лишь получит потерю конкурентных преимуществ в своем развитии. Развитие современной информационной индустрии возможно лишь в условиях кооперации множества стран, множества языков и культур, миллионов людей, говорящих на разных языках, имеющих разный опыт и непрерывно вступающих во взаимодействие между собой. Конечно, сейчас мы увидим появление множества попыток регулировать ИИ. Это уже есть в Китае, в некоторых американских штатах, думают о регулировании в ЕС и России. Но законодательство по факту будет фатально отставать от развития технологий, и едва ли на законодательном уровне можно добиться грамотных и действенных ограничений, не уничтожив будущее ИИ. Это вечная война оружия и защиты от него.

Если экстраполировать текущий тренд на 5-10 лет, какой наиболее вероятный сценарий вы видите: человечество адаптируется и выработает защитные механизмы, либо мы вступим в эру перманентной "гибридной реальности", где любое публичное высказывание будет априори ставиться под сомнение?

Николай Кульбака: Мир за 5-10 лет, с одной стороны, сильно изменится, но, с другой стороны, останется все тем же миром, где большая часть жизни людей будет происходить в реальном мире, среди реальных вещей и проблем. А виртуальная реальность станет всего лишь помощником для педагогов и ученых, бизнесменов и артистов, политиков и пенсионеров.