03.05.2023 18:52
Общество

Нейросети стали одним из самых больших страхов россиян в 2023 году

Текст:  Олег Капранов
Российская газета - Столичный выпуск: №97 (9042)
Наступление нейросетей беспокоит россиян больше всего, таковы данные "Национального индекса тревожностей" - исследования на основе анализа СМИ и социальных медиа за I квартал 2023 года, проведенного агентством КРОС. Эксперты отмечают, что наибольшую обеспокоенность вызывает неконтролируемое развитие и отсутствие модерации создаваемого искусственным интеллектом контента. Свои риски видят и крупные корпорации.
Страхи о тотальном доминировании ИИ в различных областях существуют уже не одно десятилетие. / Peshkova / iStock
Читать на сайте RG.RU

Опубликованы результаты "Национального индекса тревожностей" за I квартал 2023 года. Исследование выявляет и ранжирует тревожности россиян на основе анализа СМИ и социальных медиа. Одной из лидирующих у россиян впервые стала тревожность по поводу наступления нейросетей на человека, - отмечает Андрей Лебедев, директор по аналитике КРОС и автор исследования

"Наиболее интересный итог первого квартала - это появление новых тревожностей, которые ранее вообще не фиксировались… тревожность граждан в связи с наступлением нейросетей, это, вероятно, долгосрочный тренд, так как они и дальше будут активней проникать в нашу жизнь. Не особенно вдаваясь в детали, люди встревожены, что это начало того самого будущего, которое предсказывали в фантастических фильмах, когда искусственный интеллект может выйти из-под контроля человека", - говорит Лебедев.

Триггерами, вызвавшими беспокойство стали различные прогнозы о том, в каких профессиях искусственный интеллект и роботы смогут заменить человека в обозримом будущем. Так, 22 марта глава SpaceX Илон Маск, сооснователь Apple Стив Возняк и еще 1000 специалистов IT-индустрии распространили письмо, в котором призвали ввести на полгода мораторий на разработку систем искусственного интеллекта более мощных, чем GPT4. По мнению авторов письма, ИИ может представлять серьезные риски для общества и человечества. А первопроходец в области искусственного интеллекта Джеффри Хинтон покинул Google, чтобы предупредить человечество о надвигающейся угрозе. По словам Хинтона, инновационная гонка между технологическими гигантами выходит из-под контроля и может быть остановлена только с помощью глобального урегулирования.

Свои опасения есть и у корпораций, так Samsung запретил своим сотрудникам доступ в системы генеративного искусственного интеллекта с рабочих устройств. И пусть в этом конкретном примере речь шла о небрежности сотрудника, фактически опубликовавшего часть внутреннего исходного кода, путем его загрузки в ChatGPT, а не о каких-то угрозах от самой нейросети, но детали теряются, а заголовки остаются. И такие новости так же не добавляют оптимизма обычным пользователям.

Не снято в Голливуде: Как нейросети покоряют американскую киноиндустрию, пока сценаристы бастуют

Наибольшую обеспокоенности выказывают жители Москвы, Санкт-Петербурга, Новосибирской области, Краснодарского края и Татарстана.

"Тенденция объясняется несколькими факторами. Для Москвы - это общая активность в части использования IT сервисов и риски "обесчеловечивания" сервисов и услуг. Для регионов это в значительной степени интерпретация развития ИИ как технологии замещающие рабочие места, отсюда и тревожность по отношению к ИИ", рассказывает Петр Кирьян, директор по медиа-проектам КРОС, соавтор Национального индекса тревожностей КРОС.

Среди других тревожностей авторы исследования отмечают слухи о мобилизации и проблемы, связанные с импортозамещением, в том числе дефицит автозапчастей.

Эксперты, опрошенные "РГ" отмечают, что страхи закономерны. Развитие нейросетей и искусственного интеллекта пугает людей, как и все новое и не слишком четко регламентированное и отработанное. Однако по мере развития и выстраивания регламентов и норм страхи будут отступать, отмечает доцент департамента менеджмента и инноваций Финансового Университета при Правительстве РФ Михаил Хачатурян.

Страхи о тотальном доминировании ИИ в различных областях человеческой деятельности существуют уже не одно десятилетие, соглашается IT-эксперт Иван Волин.

"Думаю, что никого не удивлю, упомянув Айзека Азимова и его "трех законов робототехники", при том, что они были сформулированы в 1942-й году. Если их не применять, то легко допускаю масштабные движения в разрушении общественных вертикалей", - отмечает эксперт.

В перспективе может потребоваться международное соглашение о применении искусственного интеллекта по аналогии с ядерными исследованиями

"Искусственный интеллект, как и все созданное человеком, обладает как положительными, так и отрицательными сторонами. Например, применение нейросетей позволяет заменить многие рутинные операции, что является положительным моментом для экономии издержек бизнеса, с другой стороны, устранение из этих рутинных операций человека приведет к исчезновению многих рабочих мест, что разумеется с социальной точки зрения является отрицательным фактором. При этом очевидно, что устранение данного перекоса возможно при разработке программ переобучения для высвобождаемой рабочей силы с целью повышения ее качества и создания новых рабочих мест", - говорит Хачатурян.

По словам эксперта, потенциальными нишами для искусственного интеллекта будут облачные и квантовые вычисления, анализ больших данных, проведение сложных экспериментов, которые сопряжены с риском для человеческой жизни и здоровья.

"Ключевым вопросом становится разработка регламентов и правил использования искусственного интеллекта. Большинство страхов связанно с тем, что развитие данного весьма интересного, но неоднозначного направления идет совершенно бесконтрольно со стороны общества и государства. Возможно в перспективе потребуется заключение международного соглашения в области создания и применения искусственного интеллекта по аналогии с ядерными исследованиями. А пока таких мер и механизмов не существует исследователи и ученые должны больше разъяснять суть своих изысканий, что также будет способствовать снижению страхов", - добавляет он.

Все опрошенные "РГ" эксперты отмечают, что чрезвычайно важным фактором станет модерация генерируемого контента и риски, связанные с ее отсутствием. Во многих случаях нейросети отвечают прямо на очень чувствительные вопросы напрямую влияющие на безопасность общества.

"Кто будет за этим следить? Каким образом это будет применяться? Как будет осуществляться общественный контроль за применением ИИ в практической части? Ну и кроме того, с нейросетью нужно уметь общаться, правильно задавать вопросы и уметь их интерпретировать. На текущий момент развития технологии, это очень интересно, но объективно, никакой пользы, кроме наглядной демонстрации бесполезности многих учебных программ колледжей и вузов нейросеть не несет. Замечу, что пока не несет", - подытоживает Волин.

Сбер запустил конкурента ChatGPT - сервис GigaChat
Семья и дети Технологии Интернет