В России начали искать сознание у искусственного интеллекта
В ближайшее время будет запущен основной этап исследования - языковую модель будут активно побуждать к рассуждению и рефлексии и постоянно дообучать на собственных размышлениях. Первые результаты эксперимента исследователи рассчитывают получить до конца года. Предполагается, что они смогут подтвердить или опровергнуть основную гипотезу - могут ли формироваться устойчивые предпочтения и последовательности в ответах языковых моделей.
В частности предполагается, что у модели могут появиться внутренние предпочтения, если она будет глубоко рефлексировать над каждым вопросом, а потом дообучаться на собственных размышлениях
"Современные большие языковые модели общаются, грубо говоря, просто предсказывая следующее слово в последовательности. У них нет устойчивых предпочтений или системы убеждений, которая формировалась бы и эволюционировала в результате собственных размышлений и рефлексии, как у человека. Они могут имитировать убеждения, если это заложено в промпте, но не генерируют свои убеждения самостоятельно", - цитирует директора по развитию технологий ИИ "Яндекса" Александра Крайнова РБК.
По его словам, сложность состоит в том, чтобы найти способ, как побудить модель рефлексировать и использовать эти результаты для формирования собственного мнения. Эксперимент может помочь глубже понять природу человеческого мышления.
"Полной аналогии между искусственными нейросетями и нейронной гиперсетью мозга нет, но здесь можно получить достаточно интересные результаты - например, в части уточненных принципов дообучения как нейросети, так и человека; некоторых процессов синхронизации в т.н. человеко-машинных системах; обогатить сферу ИИ новыми подходами к построению самих сетей и способами формирования тех самых "устойчивых предпочтений", - говорит Павел Голосов, кандидат технический наук, директор Института общественных наук Президентской академии.
Он отмечает, что актуальность работы не вызывает сомнений, поскольку схожая работа ведется во всех крупных ИИ-центрах мира (Anthropic в США развивает проект Constitutional AI, DeepMind и Google рассматривают вопросы рефлексии LLM, OpenAI экспериментирует с функцией памяти в ChatGPT, развивая интепретируемость).
"В ближайшие три года мы можем увидеть более надежных AI‑ассистентов. Это будет верно, если не произойдет резкий технологический прорыв, который полностью изменит способ работы ИИ. Такие прорывы за три года возможны. Новые модели станут стабильнее и предсказуемее в долгих диалогах. Они смогут запоминать стиль общения и поддерживать узнаваемый "характер". Это даст более точную персонализацию и улучшит опыт пользователей. Также реже будут появляться противоречивые или спорные ответы в разных сессиях", - рассказал Голосов "РГ".
По его словам, модели с устойчивыми внутренними предпочтениями найдут применение в широком спектре областей. Например, в образовании такие системы смогут выступать персональными наставниками, которые не только помнят образовательный путь каждого студента, но и адаптируются к нему, сохраняя при этом устойчивые принципы обучения. Здравоохранение получит психотерапевтических ботов с последовательным подходом, что особенно важно для долгосрочного сопровождения. Пациенты с хроническими заболеваниями смогут взаимодействовать с системами, которые поддерживают стабильную стратегию лечения и адаптации с учетом диагноза.
Голосов отмечает, что креативные индустрии так же не останутся в стороне - они обретут AI-соавторов с узнаваемым творческим почерком, а виртуальные персонажи в играх и метавселенных получат по-настоящему глубокую характеризацию, выходящую за рамки простых скриптов.
"В социальной сфере такие модели станут партнерами для пожилых людей, а также основой для систем медиации конфликтов, действующих на базе устойчивых этических принципов. Важно подчеркнуть, что все эти применения потребуют тщательной этической экспертизы и продуманного регулирования, поскольку мы будем иметь дело с системами, имитирующими глубокие человеческие качества", - рассказал Павел Голосов.

