DeepSeek meluncurkan V4 versi pratinjau sumber terbuka, penilaian teknis 3206 melampaui GPT-5.4

MarketWhisper

DeepSeek V4開源預覽版

DeepSeek secara resmi meluncurkan rangkaian versi pratinjau V4 pada 24 April, dengan bobot model yang telah disinkronkan ke Hugging Face dan ModelScope, serta dirilis sebagai open-source di bawah lisensi MIT. Menurut laporan teknis DeepSeek V4, V4-Pro-Max (mode kekuatan inferensi maksimum) memperoleh 3206 poin pada tolok ukur Codeforces, melampaui GPT-5.4.

Spesifikasi arsitektur dua model MoE

Menurut laporan teknis DeepSeek V4, rangkaian V4 mencakup dua model campuran ahli (MoE):

V4-Pro: total parameter 1.6T, aktivasi per token 49B, mendukung konteks 1M token

V4-Flash: total parameter 284B, aktivasi per token 13B, juga mendukung konteks 1M token

Menurut laporan teknis, pada konteks 1M, FLOPs inferensi per token V4-Pro hanya 27% dari V3.2, cache KV turun menjadi 10% dari V3.2; terutama berkat peningkatan arsitektur dari mekanisme perhatian campuran (CSA perhatian jarang terkompresi + HCA perhatian terkompresi berat). Skala data praplatih melampaui 32T token; pengoptimal pelatihan diperbarui menjadi Muon.

Metodologi pasca-pelatihan: distilasi strategi online menggantikan reinforcement learning campuran

Menurut laporan teknis DeepSeek V4, pembaruan inti pasca-pelatihan V4 adalah menggantikan sepenuhnya tahap mixed RL (reinforcement learning campuran) V3.2 dengan distilasi strategi online (On-Policy Distillation, OPD). Proses baru dibagi menjadi dua langkah: pertama, melatih para pakar bidang secara terpisah untuk bidang seperti matematika, kode, Agent, dan mengikuti instruksi (SFT + reinforcement learning GRPO); kemudian, men-disti lasi kemampuan dari belasan ahli tersebut ke dalam satu model terpadu menggunakan multi-guru OPD, dengan penyelarasan melalui logit untuk menghindari konflik kemampuan yang umum terjadi pada metode tradisional.

Laporan ini juga memperkenalkan model hadiah generatif (Generative Reward Model, GRM), untuk tugas yang sulit diverifikasi dengan aturan, dengan melatih model menggunakan sejumlah kecil data anotasi manusia yang beragam, sehingga model dapat menjalankan fungsi generasi sekaligus evaluasi.

Hasil uji tolok ukur: unggul dalam pengkodean, namun masih ada kesenjangan pada penalaran pengetahuan

Menurut laporan teknis DeepSeek V4, hasil perbandingan V4-Pro-Max dengan Opus 4.6 Max, GPT-5.4 xHigh, dan Gemini 3.1 Pro High (tidak termasuk GPT-5.5 dan Opus 4.7 yang dirilis baru-baru ini):

Codeforces: 3206 (GPT-5.4:3168 / Gemini 3.1 Pro:3052)→ Tertinggi di seluruh ajang

LiveCodeBench:93.5 → Tertinggi di seluruh ajang

SWE Verified:80.6, tertinggal 0.2 poin persentase dari Opus 4.6 yang 80.8

GPQA Diamond:90.1, tertinggal dari Gemini 3.1 Pro yang 94.3

SimpleQA-Verified:57.9, tertinggal dari Gemini 3.1 Pro yang 75.6

HLE:37.7, tertinggal dari Gemini 3.1 Pro yang 44.4

Laporan teknis tersebut sekaligus menyatakan bahwa perbandingan di atas tidak mencakup GPT-5.5 dan Opus 4.7 yang dirilis paling baru; perbedaan antara V4 dan model generasi terbaru yang tertutup masih perlu diverifikasi melalui evaluasi pihak ketiga.

FAQ (Pertanyaan yang Sering Diajukan)

Apa ketentuan lisensi open-source untuk pratinjau DeepSeek V4, dan di mana mendapatkannya?

Berdasarkan pengumuman resmi DeepSeek pada 24 April, rangkaian V4 dirilis sebagai open-source di bawah lisensi MIT, bobot model telah tersedia di Hugging Face dan ModelScope, serta dapat digunakan untuk keperluan komersial dan akademik.

Apa perbedaan skala parameter DeepSeek V4-Pro dan V4-Flash?

Menurut laporan teknis DeepSeek V4, total parameter V4-Pro adalah 1.6T, dengan aktivasi per token 49B; total parameter V4-Flash adalah 284B, dengan aktivasi per token 13B; kedua model mendukung konteks 1M token.

Apa hasil perbandingan tolok ukur DeepSeek V4-Pro-Max dengan GPT-5.4 dan Gemini 3.1 Pro?

Menurut laporan teknis DeepSeek V4, V4-Pro-Max melampaui GPT-5.4 dan Gemini 3.1 Pro pada dua tolok ukur Codeforces (3206 poin) dan LiveCodeBench (93.5), namun masih tertinggal pada tolok ukur yang padat pengetahuan (GPQA Diamond, SimpleQA-Verified, HLE) dari Gemini 3.1 Pro; kelompok perbandingan tidak mencakup GPT-5.5 dan Opus 4.7.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

India Meluncurkan Proyek Kota AI $650M di Bengaluru Menargetkan 25.000 Peneliti pada Tahun 2030

Pesan Berita Gate, 27 April — India sedang mengembangkan kota AI senilai $650 juta di Bengaluru, dengan fasilitas seluas 500.000 kaki persegi yang dirancang untuk menjadi laboratorium fisik pertama di dunia untuk AI agenik. Proyek ini menawarkan konektivitas 400 Gbps kepada empat penyedia cloud AI utama dan berencana untuk mendukung

GateNews6menit yang lalu

Sam Altman Menguraikan Lima Prinsip Operasional OpenAI, Menandakan Kemungkinan Pembatasan Kemampuan Model di Masa Depan demi Keselamatan

Pesan dari Gate News, 27 April — CEO OpenAI Sam Altman merilis lima prinsip operasional untuk perusahaan tersebut dengan tanda tangan pribadinya, menandakan bahwa OpenAI mungkin membatasi akses pengguna ke kemampuan model pada periode tertentu untuk memprioritaskan keselamatan. Dalam pernyataan tersebut, Altman menguraikan skenario masa depan yang mungkin di mana perusahaan perlu "mengorbankan sebagian pemberdayaan sebagai imbalan atas ketahanan yang lebih besar."

GateNews1jam yang lalu

DeepSeek Menunda Peluncuran V4 untuk Mengoptimalkan Chip Ascend Huawei

Berita Pintu Gerbang, 27 April — DeepSeek menunda rilis model V4-nya untuk menyempurnakan tumpukan perangkat lunak bagi chip Ascend milik Huawei, mencerminkan inisiatif Beijing yang lebih luas untuk mengembangkan rantai pasokan AI domestik saat akses ke semikonduktor asing berteknologi maju menjadi semakin terbatas. DeepSe

GateNews1jam yang lalu

DeepSeek Memotong Harga Cache Input Menjadi 1/10 dari Harga Peluncuran; V4-Pro Turun ke 0,025 Yuan per Juta Token

Pengumuman Gate News, 26 April — DeepSeek telah menurunkan harga cache input di seluruh jajaran modelnya menjadi sepersepuluh dari harga saat peluncuran, berlaku mulai saat ini. Model V4-Pro tersedia dengan diskon 2,5x untuk waktu terbatas, dengan promo berlangsung hingga 5 Mei 2026, pukul 11:59 malam UTC+8. Setelah kedua

GateNews11jam yang lalu

OpenAI Merekrut Talenta Perangkat Lunak Perusahaan Teratas karena Agen Frontier Mengganggu Industri

Pesan Berita Gate, 26 April — OpenAI dan Anthropic telah merekrut eksekutif senior dan insinyur spesialis dari perusahaan perangkat lunak perusahaan besar, termasuk Salesforce, Snowflake, Datadog, dan Palantir. Denise Dresser, mantan CEO Slack di bawah Salesforce, bergabung dengan OpenAI sebagai chief revenue officer, sementara

GateNews11jam yang lalu

Baidu Qianfan Meluncurkan Dukungan Hari ke-0 untuk DeepSeek-V4 dengan Layanan API

Pesan Berita Gate, 25 April — Versi pratinjau DeepSeek-V4 telah diluncurkan dan dirilis sebagai sumber terbuka pada 25 April, dengan platform Baidu Qianfan di bawah Baidu Intelligent Cloud menyediakan adaptasi layanan API Hari ke-0. Model ini memiliki jendela konteks diperpanjang hingga satu juta token dan tersedia dalam dua versi: DeepSeek-V4

GateNews17jam yang lalu
Komentar
0/400
Tidak ada komentar