
DeepSeek 24 квітня офіційно випустила серію V4-прев’ю, відкривши моделі з ліцензією MIT; ваги моделей синхронно завантажено на Hugging Face та ModelScope. Згідно з технічним звітом DeepSeek V4, V4-Pro-Max (максимально потужний режим міркувань) на бенчмарку Codeforces набрав 3206 балів, випередивши GPT-5.4.
Згідно з технічним звітом DeepSeek V4, серія V4 включає дві змішані експертні (MoE) моделі:
V4-Pro: загальні параметри 1.6T, активація на кожен token 49B, підтримка контексту 1M token
V4-Flash: загальні параметри 284B, активація на кожен token 13B, так само підтримка контексту 1M token
Згідно зі звітом, у режимі 1M-контексту однотокенові FLOPs для міркувань V4-Pro становлять лише 27% від V3.2; кеш KV знижується до 10% від V3.2. Це головним чином завдяки архітектурному оновленню механізму змішаної уваги (CSA із стисненим розрідженим attention + HCA з важким стисненням attention). Розмір даних для передтренування перевищує 32T token; тренувальний оптимізатор оновлено до Muon.
Згідно з технічним звітом DeepSeek V4, ключове оновлення післятренування V4 полягає в тому, що онлайн-стратегічна дистиляція (On-Policy Distillation, OPD) повністю замінює етап змішаного підкріплювального навчання (mixed RL) V3.2. Новий процес складається з двох кроків: спочатку для таких галузей, як математика, код, Agent та наслідування інструкцій, окремо тренуються галузеві експерти (SFT + GRPO підкріплювальне навчання); далі за допомогою OPD з багатьма вчителями здібності десятка з лишком експертів дистилюються в єдину модель, використовуючи вирівнювання через logit, щоб уникнути типових конфліктів здібностей у традиційних підходах.
Звіт також вводить генеративну модель винагороди (Generative Reward Model, GRM): для задач, які складно валідовувати правилами, за допомогою невеликого обсягу різноманітно розмічених вручну даних навчають модель виконувати одночасно функції генерації та оцінювання.
Згідно з технічним звітом DeepSeek V4, результати порівняння V4-Pro-Max з Opus 4.6 Max, GPT-5.4 xHigh та Gemini 3.1 Pro High (без урахування нещодавно опублікованих GPT-5.5 та Opus 4.7):
Codeforces: 3206 (GPT-5.4: 3168 / Gemini 3.1 Pro: 3052) → найвищий результат у всьому заліку
LiveCodeBench: 93.5 → найвищий результат у всьому заліку
SWE Verified: 80.6, відставання від Opus 4.6 на 80.8, різниця 0.2 відсоткового пункту
GPQA Diamond: 90.1, відставання від Gemini 3.1 Pro на 94.3
SimpleQA-Verified: 57.9, відставання від Gemini 3.1 Pro на 75.6
HLE: 37.7, відставання від Gemini 3.1 Pro на 44.4
Технічний звіт також зазначає, що наведені вище порівняння не враховують нещодавно опубліковані GPT-5.5 та Opus 4.7; відмінності між V4 і найновішими закритими моделями потребують підтвердження сторонніми незалежними оцінюваннями.
Згідно з офіційним оголошенням DeepSeek від 24 квітня, серія V4 відкрито поширюється за ліцензією MIT; ваги моделей розміщені на Hugging Face та ModelScope; застосовна для комерційного та академічного використання.
Згідно з технічним звітом DeepSeek V4, V4-Pro має загалом 1.6T параметрів, активація на кожен token — 49B; V4-Flash має загалом 284B параметрів, активація на кожен token — 13B; обидві моделі підтримують контекст 1M token.
Згідно з технічним звітом DeepSeek V4, V4-Pro-Max у двох бенчмарках — Codeforces (3206 балів) і LiveCodeBench (93.5) — перевершив GPT-5.4 та Gemini 3.1 Pro, але в знаннєво-інтенсивних бенчмарках (GPQA Diamond, SimpleQA-Verified, HLE) все ще відстає від Gemini 3.1 Pro; у складі порівняльного набору не враховані GPT-5.5 та Opus 4.7.
Пов'язані статті
Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь
AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI
OpenAI Об’єднує Codex з Основною Моделлю, Починаючи з GPT-5.4, Припиняє Окрему Лінійку Кодування
Salesforce найматиме 1,000 випускників і стажерів для продуктів на базі ШІ, підвищує прогноз доходів на FY2026
Alibaba Cloud запускає Qwen-Image-2.0-Pro з уніфікованим перетворенням тексту в зображення та редагуванням, з підтримкою багатомовного відтворення тексту
API DeepSeek V4-Pro отримує 75% знижку до 5 травня, ціна на виході знижується до $0.87 за мільйон токенів