Экономист Кульбака: Главные лазейки для мошенников - не в нейросетях, а в низком уровне финансовой грамотности людей

Искусственный интеллект - это всего лишь инструмент
Насколько сегодняшний уровень технологий (нейросети для генерации видео, аудио, текстов) уже достаточен для массового и убедительного воздействия на общественное мнение? Где главные лазейки для злоумышленников?
Николай Кульбака: Главные лазейки для злоумышленников, увы, лежат не в уровне развития нейросетей, а в низком уровне финансовой и юридической грамотности людей. Говорить о том, что людей стали больше обманывать, сложно, особенно если вспомнить массовое участие людей в финансовых пирамидах 1990-х, проблемы обманутых дольщиков в 2000-х и телефонных мошенников 2010-х. Нейросети - всего лишь еще один инструмент, который мало что добавляет сам по себе, и его опасность существенно преувеличена.
Кто, по вашему мнению, будет основными "игроками" в использовании ИИ для конструирования повестки: отдельные государства, политические группы, коммерческие структуры, маргинальные сообщества? Каковы их возможные цели - от дестабилизации до коммерции?
Николай Кульбака: Искусственный интеллект - это всего лишь инструмент. Его качество зависит от наполнения информацией. Реально ни отдельные государства, ни коммерческие структуры, ни политические группы сейчас не в состоянии самостоятельно формировать наполнение информацией системы искусственного интеллекта. Для этого нужна информация, собираемая с огромного количества распределенных источников по всему миру. И эффективность будет зависеть именно от массовости. Поэтому, например, абсолютно бесперспективно создавать модель ИИ в рамках одной страны. Она будет заведомо проигрывать любой международной системе. Что касается целей использования, то они поистине огромны. Это анализ информации, помощь в программировании и написании текстов, формирование художественных образов, научная и образовательная деятельность. Это просто новый инструмент, которым нам еще предстоит научиться пользоваться. Что касается использования ИИ для дестабилизации, то это скорее ложные опасения, мало на чем основанные. Мы сейчас находимся в периоде большой переоценки возможностей ИИ, который уже подходит к концу.

Почему современное общество и медиасреда особенно уязвимы перед таким воздействием? Это вопрос скорости распространения информации, кризиса доверия к традиционным источникам или чего-то еще?
Николай Кульбака: Мы сейчас находимся в сложном периоде смены авторитетов в обществе. Старые источники информации, такие как газеты и телевидение, не успевают за изменениями в медийном потреблении. Старые институты, такие как научные учреждения и университеты, оказались во многом не готовы к изменению своей роли в распространении информации. Все это наложилось на низкий уровень образования среднестатистического человека, получившего, благодаря смартфонам, доступ к огромному объему информации, который он не умеет критически обрабатывать. Именно в этом и заключается причина роста популизма во многих странах, когда люди пытаются искать простые решения в весьма сложном современном мире.
Синтетический контент едва ли многое поменяет в современном мире
Не приведет ли массовое использование синтетического контента в публичной сфере к окончательной эрозии доверия не только к медиа, но и к любым цифровым свидетельствам (фото, видео), а в итоге - к социальному атомизированию?
Николай Кульбака: Думаю, с этим вызовом современный мир точно справится, синтетический контент едва ли многое поменяет в современном мире. Тем более что жизнь большинства людей определяется не СМИ, а их повседневной жизнью, где происходит взаимодействие с реальными людьми, а все предметы весьма материальны - от автомобиля и автобуса до картошки и мебели. Действительно, использование смартфонов привело к определенному росту атомизации людей, но в реальном мире мы все равно ходим на работу, где сидят живые люди, сидим в кафе и учимся в университетах. Так что сильно на обществе это не скажется. И уж синтетический контент на это точно не повлияет.
Можно ли вообще этично использовать ИИ в публичных коммуникациях (например, для создания социальной рекламы или разъяснения политики)? Где должна проходить красная линия?
Николай Кульбака: Ну, тогда возникнет вопрос, насколько этична ретушь в фотографии. Вспомните, как затушевывали родимое пятно на голове у Горбачева и как непохожи были идеальные портреты членов политбюро на обрюзгших дядек, стоявших на мавзолее. Политику в обществе формируют все равно люди, и чем больше людей будет вовлечено в политическую и общественную жизнь, тем сложнее ими будет манипулировать.
Чем разнообразнее интересы людей в политике, тем сложнее ими манипулировать
Как эта технология может изменить сам характер политической борьбы и публичных дебатов? Станет ли "война нарративов", подкрепленных ИИ, важнее, чем дискуссия по сути?
Николай Кульбака: Такая опасность есть, но для того, чтобы это не произошло, необходимо обучение людей критическому мышлению, формирование у них активной общественной позиции, когда люди не являются тупыми потребителями контента, а сами формируют политическую повестку. Ведь политика, по сути, это конкурентная борьба за решение проблем групп людей с разными интересами. И чем разнообразнее интересы людей в политике, тем сложнее ими манипулировать.
Что будет следующим логическим этапом? Интерактивные ИИ-агенты в соцсетях, ведущие персональные беседы с тысячами пользователей, или полная симуляция информационных событий "под ключ"?
Николай Кульбака: До этого еще очень и очень далеко. Люди много работают рядом с другими людьми, строят дороги и мосты, выращивают хлеб и делают научные открытия, пишут книги и создают произведения искусства, выращивают детей и спасают животных. И у них не так много времени, чтобы вступать в дискуссии с искусственным интеллектом. Кроме того, ИИ - это слишком дорогое удовольствие, чтобы персонализировано работать с каждым человеком. Тем более что по-настоящему образованный человек меньше поддается манипуляциям. И неважно, это манипуляции со стороны живых людей или искусственного интеллекта.
На что может опереться обычный человек и общество в целом для противодействия такой практике? Спасет ли нас развитие технологий детекции (искусственный иммунитет), или упор нужно делать на медиаграмотность и законодательство?
Николай Кульбака: Прежде всего, конечно, необходимо образование, основанное на критическом мышлении, умении дискутировать, собирать и анализировать информацию. Именно на этом основывается борьба с любым типом манипуляций. Дополнительно к этому следует добавить юридическую и финансовую грамотность, которые в нашем обществе пока еще в зачаточном состоянии. Законодательство мало этому поможет, поскольку для этого прежде всего придется учить новое поколение юристов, которые будут обладать всеми этими характеристиками, включая умение анализировать информацию и критически подходить к предоставляемым данным.
Какую ответственность должны нести социальные сети и поисковые системы за распространение синтетического контента? Должны ли они маркировать его, понижать в выдаче или полностью блокировать?
Николай Кульбака: Пока еще эта проблема точно не стоит так остро, поскольку синтетический контент по факту мало чем отличается от грамотных и серьезных комбинированных съемок. И чем, например, синтетический контент отличается от пения под фонограмму, очень часто чужую. Да и современный грим может до неузнаваемости изменить лицо человека.
Возможно ли в принципе эффективное правовое регулирование этой сферы в глобальном мире? Не приведет ли жесткое регулирование в одной стране лишь к переносу таких операций в другие юрисдикции?
Николай Кульбака: В современном глобальном мире любая страна, закрывшая свои компьютерные сети от мировой информации, в долгосрочном периоде лишь получит потерю конкурентных преимуществ в своем развитии. Развитие современной информационной индустрии возможно лишь в условиях кооперации множества стран, множества языков и культур, миллионов людей, говорящих на разных языках, имеющих разный опыт и непрерывно вступающих во взаимодействие между собой. Конечно, сейчас мы увидим появление множества попыток регулировать ИИ. Это уже есть в Китае, в некоторых американских штатах, думают о регулировании в ЕС и России. Но законодательство по факту будет фатально отставать от развития технологий, и едва ли на законодательном уровне можно добиться грамотных и действенных ограничений, не уничтожив будущее ИИ. Это вечная война оружия и защиты от него.
Если экстраполировать текущий тренд на 5-10 лет, какой наиболее вероятный сценарий вы видите: человечество адаптируется и выработает защитные механизмы, либо мы вступим в эру перманентной "гибридной реальности", где любое публичное высказывание будет априори ставиться под сомнение?
Николай Кульбака: Мир за 5-10 лет, с одной стороны, сильно изменится, но, с другой стороны, останется все тем же миром, где большая часть жизни людей будет происходить в реальном мире, среди реальных вещей и проблем. А виртуальная реальность станет всего лишь помощником для педагогов и ученых, бизнесменов и артистов, политиков и пенсионеров.

