Познакомьтесь с QwQ-32B (Qwen-with-Questions) – моделью, демонстрирующей точность на уровне DeepSeek-R1 и превосходящей o1-mini в сложных математических и логических задачах. Идеальна для задач, требующих глубокого анализа и пошагового мышления. Доступна в рамках единой подписки вместе с GPT-4o, Claude, DeepSeek и Midjourney.
Попробовать сейчас 3 дня за 1 ₽Превосходит OpenAI o1-mini в математических и логических задачах, показывая точность на уровне лучших специализированных моделей DeepSeek-R1.
Обработка до 131 000 токенов в одном запросе, позволяя анализировать большие документы и сложные многоэтапные задачи.
Специально обучена для математических вычислений и научных задач, превосходит другие модели в олимпиадных задачах (AIME, MATH).
Автоматически проверяет каждый шаг рассуждения и самостоятельно исправляет ошибки для максимальной надежности ответов.
Глубокое RL-тюнингование с проверкой кода позволяет находить и исправлять логические ошибки в программах на разных языках.
Сначала фокусируется на решении и проверке задачи, затем уточняет и структурирует ответ для максимальной понятности.
Разработана с использованием передовых технологий обучения (RL-scaling), что делает её эффективнее модели в 20 раз больше размером.
Предоставляется по цене GPT-4o-mini и Gemini 2, несмотря на возможности уровня флагманских моделей в задачах рассуждения.
Критерий | QwQ-32B Alibaba | DeepSeek R1 DeepSeek | o1 OpenAI | Claude 3.7 Anthropic |
---|---|---|---|---|
Математические задачи | Превосходное лидерство на тестах AIME, MATH Олимпиадный уровень | Отличное высокоточные рассуждения | Хорошее уступает QwQ-32B на AIME/MATH | Хорошее меньший фокус на математике |
Размер контекста | 262 000 символов Расширенный | 256 000 символов | 250 000 символов | 400 000 символов Максимальный |
Эффективность модели | Максимальная всего 32 млрд параметров RL-scaling технология | Низкая 671 млрд параметров | Средняя около 200 млрд параметров | Высокая 50-70 млрд параметров |
Программирование | Очень хорошее улучшено за счет RL-тюнинга Проверка кода | Отличное для сложных алгоритмов | Превосходное для сложных алгоритмов | Лучшее в классе первое место в бенчмарках кода Claude Code |
Научное мышление | Превосходное лидер научных тестов GPQA Научный уровень | Высокое сильные логические способности | Хорошее уступает QwQ на GPQA | Отличное фокус на прикладных задачах Extended thinking |
Уникальные возможности | Self-questioning автоматическая самопроверка Двухфазный анализ | MoE-архитектура смесь экспертов Специализация | Глубокий анализ для сложных задач Chain-of-thought | Гибридный режим стандартный/расширенный Выбор глубины |
QwQ-32B выделяется превосходной эффективностью, предлагая качество на уровне моделей с сотнями миллиардов параметров при размере всего в 32 миллиарда. Особенно впечатляет в математических задачах и научных вопросах, где превосходит многих конкурентов. Благодаря технологии RL-scaling и self-questioning подходу, модель демонстрирует высокую точность рассуждений даже в сложных многоэтапных задачах.
Вам важно качество ответов нейросети или необходима работа с картинками?
Вам важно качество ответов нейросети и вы хотите работать с ней много?
Модель | Студенческий | Пару раз в неделю | На каждый день |
---|---|---|---|
GPT-3.5 / GPT-4o mini / Gemini / Qwen | 2 000 000 символов | 2 000 000 символов | 2 000 000 символов |
GPT-4o / O3-mini / DeepSeek R1 / o1-mini / YandexGPT / GigaChat / Claude | - | 800 000 символов* | 2 000 000 символов* |
o1 | - | 266 666 символов* | 666 666 символов* |
Модель / Размер | Студенческий | Пару раз в неделю | На каждый день |
---|---|---|---|
DALL·E 3 Standard, 1024×1024 | - | 3000 символов | 3000 символов |
DALL·E 3 Standard, 1024×1792 / 1792×1024 | - | 6000 символов | 6000 символов |
DALL·E 3 HD, 1024×1024 | - | 6000 символов | 6000 символов |
DALL·E 3 HD, 1024×1792 / 1792×1024 | - | 8000 символов | 8000 символов |
Midjourney | - | 16000 символов | 16000 символов |
Услуга | Студенческий | Пару раз в неделю | На каждый день |
---|---|---|---|
Распознавание изображений | 170 символов за изображение | 170 символов за изображение | 170 символов за изображение |
База знаний: добавление файлов | 8 000 000 символов** | 8 000 000 символов** | 8 000 000 символов** |
* GPT-4o, O3-mini, DeepSeek R1 и o1 имеют общий бюджет с коэффициентом 1:3. Например, в тарифе «Пару раз в неделю» вы можете использовать 800 000 символов GPT-4o (или O3-mini, или DeepSeek R1) или 266 666 символов o1, или любую комбинацию, где 1 символ GPT-4o/O3-mini/DeepSeek R1 равен 3 символам o1. Общий лимит — 800 000 символов GPT-4o (и эквивалент) или 266 666 символов o1.
** Символы для добавления файлов в базу знаний делят общий бюджет с GPT-3.5 / GPT-4o mini (1 символ GPT-3.5 = 4 символа файла).
Работаем с юридическими лицами. Выставляем счета, предоставляем закрывающие документы.
Запросить счётПросто укажите интересующий тариф, количество пользователей, срок использования и приложите реквизиты компании — мы пришлем счёт.
Есть возможность подключения через API.
Получите доступ к QwQ-32B — модели рассуждений, демонстрирующей точность премиальных решений по цене базовых моделей. Идеальна для математики, науки и программирования благодаря уникальной технологии self-questioning. Эффективно решает сложные задачи, достигая качества моделей в 20 раз больше её размера!