Представлена нейросетевая "рассуждающая" модель QwQ-32B

Китайская компания Qwen, входящая в экосистему Alibaba, представила нейросетевую "рассуждающую" модель QwQ-32B. Несмотря на свой небольшой размер (32 млрд параметров), она продемонстрировала впечатляющие результаты, превзойдя гигантскую DeepSeek R1 (671 млрд параметров) в ряде тестов, включая проверку фактов.
"Рассуждающие модели" способны проверять собственные выводы.
"Рассуждающие модели" способны проверять собственные выводы. / monsitj/istock

В бенчмарках QwQ-32B показала паритет с DeepSeek R1 в кодировании, математике и выполнении инструкций, а в фактчекинге опередила конкурента на 6%. А по сравнению с o1-mini от OpenAI китайская разработка лидирует в четырех из пяти тестов. При этом, по словам экспертов, сложностей с использованием QwQ-32B в России на текущий момент нет, поскольку модель доступна как через официальный чат-бот Qwen, так и в сервисе Hugging Face - крупнейшей в мире платформе для ИИ-моделей с открытым исходным кодом. А так как QwQ-32B распространяется под открытой лицензией Apache 2.0, это означает возможность ее свободой интеграции в любые продукты и сервисы, включая коммерческие решения.

"Само понятие "рассуждающих моделей" не ново, еще в 2023 году исследователи показали, что большие языковые модели определенного размера обладают встроенными способностями к улучшению своих ответов за счет предварительного построения цепочек рассуждений. В проведенных экспериментах авторы обнаружили, что добавление в модель промпта Let"s think step-by-step позволяет улучшать финальное качество результатов на ряде задач на 30-50%, и этого можно было добиться без ее дообучения", - отмечает руководитель группы "Мультимодальный ИИ" Лаборатории FusionBrain Института AIRI Елизавета Гончарова.

По словам технического директора WMT Group Романа Еникеева, "рассуждающие модели" способны выполнять сложные задачи, анализируя запросы и разбивая их на более мелкие. Они как бы "зацикливаются" в своей работе до тех пор, пока не получат конечный ответ - совсем как человеческий мозг.

"Такие модели отличаются от традиционных языковых (LLM) тем, что не просто генерируют ответы на основе статистических шаблонов, а вместо этого пытаются понять логику и последовательность решения проблемы", - подчеркнул эксперт.

"Рассуждающие модели" могут сами проверять факты, анализировать правильность своих выводов и избегать ошибок, что повышает их надежность и является важным шагом к созданию AGI (общего искусственного интеллекта), который мог бы обладать автономным самоконтролем, способностью к самообучению и адаптации к новым условиям и ситуациям. Разработкой AGI активно занимаются такие крупные компании, как, например, OpenAI и xAI.

"Сегодня ИИ-модели, способные к рассуждениям, могут использоваться в контексте научных исследований - для анализа больших массивов данных, написания математических формул, решения сложных научных задач и проч. Кроме того, "рассуждающие модели" могут применяться в контексте различных чат-ботов, а также для помощи в разработке программных решений и оптимизации рабочих процессов", - говорит Еникеев. Он также видит перспективы применения рассуждающего ИИ в сфере образования, так как такие модели способны вести полноценный диалог с учениками.

В России пока еще нет полностью разработанных и доступных для пользователей "рассуждающих ИИ-моделей", но ведутся активные работы над их созданием. Так, недавно "Яндекс" заявил о разработке первой в России "рассуждающей нейросети", запуск которой ожидается уже в 2025 году. MTS AI работает над новым поколением корпоративных моделей Cotype с подобными технологическими возможностями, а Сбер развивает языковую модель GigaChat, которая в будущем также будет способна к рассуждениям.

По словам Гончаровой, GigaChat и YandexGPT уже достаточно сильны и способны производить рассуждения перед тем, как дать финальный ответ на вопрос: "Думаю, что в ближайшее время мы увидим еще большее усиление таких способностей не только среди языковых, но и среди мультимодальных моделей".

Появление компактной и эффективной QwQ-32B добавило "огня" в непрекращающийся спор между сторонниками концепции фундаментальных, универсальных нейросетевых моделей и тех, кто уверен, что будущее за легкими, узкоспециализированными моделями, способными работать на массовом и дешевом "железе".

Директор по инновациям компании Fork-Tech Владислав Лаптев уверен, что будущее за гибридными подходами, где эти решения дополняют друг друга.

"Для рутинных процессов (анализ данных, прогнозирование) эффективны малые модели - они экономят ресурсы и снижают нагрузку на IT-инфраструктуру. Универсальные модели, в свою очередь, незаменимы для клиентских сервисов, требующих гибкости, - говорит Лаптев. - Cегодня ключевой тренд - это динамические системы, где задачи распределяются между моделями автоматически: например, простые запросы или запросы к конфиденциальным данным решаются компактными алгоритмами на cерверах организации , а сложные передаются мощным облачным платформам"