DeepSeek запустила сразу две модели ИИ: что скрывается за V4-Pro и V4-Flash

Компания DeepSeek представила предварительную версию линейки DeepSeek-V4, включающую две модели на архитектуре Mixture-of-Experts. Старшая версия V4-Pro оснащена 1,6 триллионами параметров, младшая V4-Flash — 284 миллиардами. Принцип работы архитектуры позволяет V4-Pro использовать только 49 миллиардов параметров при генерации ответа, тогда как V4-Flash задействует 13 миллиардов.

DeepSeek запустила сразу две модели ИИ: что скрывается за V4-Pro и V4-Flash

Модели уже интегрированы в чат-бот DeepSeek и доступны через API. Пользователи могут переключаться между ними через режимы работы: «Эксперт» активирует V4-Pro, «Быстрый» — V4-Flash. Веса моделей опубликованы на платформе Hugging Face для самостоятельного развертывания и адаптации.

Архитектура Mixture-of-Experts представляет собой систему из множества «экспертов», где для каждого конкретного запроса активируется только часть из них. Благодаря этому подходу модель с огромным количеством параметров фактически использует лишь небольшую долю вычислительных ресурсов при генерации. V4-Pro позиционируется как решение для комплексных задач, требующих глубокого анализа, работы с кодом, обработки длинного контекста и ситуаций, где качество результата важнее скорости получения ответа. V4-Flash создана для сценариев с массовыми запросами, где критичны низкая задержка и экономичность использования.

Обе версии поддерживают контекст объемом до миллиона токенов, что открывает возможности для обработки объемных документов, длительных переписок, больших кодовых баз и агентных сценариев с удержанием значительного объема исходной информации. По внутренним тестам DeepSeek, V4-Pro демонстрирует наилучшие показатели в режиме Max: 93,5 балла на LiveCodeBench, рейтинг 3206 на Codeforces, 80,6% на SWE Verified и 67,9 на Terminal Bench 2.0.

Для начала работы с V4 через чат-бот достаточно перейти на сайт DeepSeek — модель активна по умолчанию, выбор между версиями осуществляется через режимы работы. Разработчики получают доступ к моделям через API под идентификаторами deepseek-v4-pro и deepseek-v4-flash. Ценообразование различается: V4-Flash стоит $0,14 за миллион входных токенов и $0,28 за миллион выходных, при попадании в кэш входные токены обходятся в $0,028. V4-Pro дороже — $1,74 за миллион входных токенов, $3,48 за миллион выходных и $0,145 при использовании кэша.

Разделение линейки на две модели отражает четкую специализацию: V4-Pro ориентирована на задачи с максимальными требованиями к точности и устойчивости при работе с длинным контекстом, V4-Flash закрывает потребность в быстрых ответах с минимальной стоимостью запроса. Ключевое преимущество заключается не только в масштабе моделей, но и в комбинации открытых весов, поддержки длинного контекста и MoE-архитектуры. DeepSeek продолжает стратегию предоставления альтернативы закрытым коммерческим моделям, давая разработчикам возможность самостоятельного развертывания и адаптации системы под специфические задачи.

Выпуск V4 продолжает курс, начатый с открытых моделей V3 и R1: крупные MoE-модели с открытой публикацией весов и разделением на версии для различных режимов эксплуатации. Линейка DeepSeek-V4 добавляет в экосистему компании два инструмента под разные сценарии использования — V4-Pro для вычислительно сложных задач и V4-Flash для быстрых запросов с минимизацией ресурсных затрат. Такой подход позволяет оптимизировать баланс между производительностью, качеством результата и экономической эффективностью в зависимости от конкретных требований проекта.

Читайте также: