Mistral baru saja merilis Mistral 3, keluarga baru dari 10 model open-weight, yang dirancang untuk berjalan di segala perangkat mulai dari cloud konsumen hingga laptop, drone, dan robot.
Startup AI Mistral telah meluncurkan Mistral 3, generasi terbaru dari model-modelnya, yang menampilkan tiga model dense ringkas dan berkinerja tinggi dengan parameter 14B, 8B, dan 3B, bersama dengan Mistral Large 3, model paling canggih mereka hingga saat ini—sebuah sistem sparse mixture-of-experts yang dilatih dengan 41B parameter aktif dan 675B total parameter. Semua model tersedia di bawah lisensi Apache 2.0, memberikan akses open-source kepada pengembang dalam berbagai format terkompresi untuk mendukung aplikasi AI terdistribusi.
Model Ministral dirancang untuk efisiensi rasio performa terhadap biaya yang kuat, sementara Mistral Large 3 memposisikan dirinya di antara model open-source instruction-fine-tuned terdepan. Dilatih dari awal dengan 3.000 GPU NVIDIA H200, Mistral Large 3 menjadi rilis mixture-of-experts pertama perusahaan sejak seri Mixtral dan mewakili kemajuan signifikan dalam pra-pelatihan. Setelah post-training, model ini menyamai model open-weight instruction-tuned terbaik pada prompt umum dan menunjukkan pemahaman gambar tingkat lanjut serta kemampuan percakapan multibahasa yang unggul.
Mistral Large 3 memulai debutnya di peringkat #2 in the OSS non-reasoning models category and #6 secara keseluruhan pada papan peringkat LMArena. Versi dasar dan instruction-tuned keduanya dirilis di bawah Apache 2.0, menawarkan platform yang kokoh untuk kustomisasi perusahaan dan pengembang, dengan versi reasoning yang direncanakan akan dirilis di masa mendatang.
Mistral Bekerja Sama dengan NVIDIA, vLLM, dan Red Hat untuk Tingkatkan Aksesibilitas dan Performa Mistral 3
Mistral Large 3 telah dibuat sangat mudah diakses oleh komunitas open-source melalui kolaborasi dengan vLLM dan Red Hat. Sebuah checkpoint dalam format NVFP4, dioptimalkan dengan llm-compressor, memungkinkan eksekusi efisien pada sistem Blackwell NVL72 atau satu node 8×A100 atau 8×H100 menggunakan vLLM.
Pengembangan model AI open-source tingkat lanjut bergantung pada optimasi perangkat keras dan perangkat lunak secara ekstensif, yang dicapai melalui kemitraan dengan NVIDIA. Semua model Mistral 3, termasuk Large 3 dan Ministral 3, dilatih pada GPU NVIDIA Hopper, memanfaatkan memori HBM3e berbandwidth tinggi untuk beban kerja berskala besar. Pendekatan co-design NVIDIA mengintegrasikan perangkat keras, perangkat lunak, dan model untuk memungkinkan inferensi efisien menggunakan TensorRT-LLM dan SGLang di seluruh keluarga Mistral 3, mendukung eksekusi presisi rendah.
Untuk arsitektur sparse mixture-of-experts pada Large 3, NVIDIA mengimplementasikan Blackwell attention dan kernel MoE, menambahkan prefill/decode disaggregated serving, dan berkolaborasi pada speculative decoding, memungkinkan pengembang menangani beban kerja konteks panjang dan throughput tinggi pada sistem GB200 NVL72 dan seterusnya. Model Ministral juga dioptimalkan untuk deployment pada DGX Spark, PC dan laptop RTX, serta perangkat Jetson, memberikan pengalaman kinerja tinggi yang konsisten dari pusat data hingga aplikasi edge. Mistral menyampaikan terima kasih kepada vLLM, Red Hat, dan NVIDIA atas dukungan dan kolaborasi mereka.
Ministral 3: Performa AI Tingkat Lanjut untuk Edge dan Deployment Lokal
Seri Ministral 3 dirancang untuk deployment edge dan lokal, ditawarkan dalam tiga ukuran—3B, 8B, dan 14B parameter. Setiap ukuran tersedia dalam varian base, instruct, dan reasoning, semuanya memiliki fitur pemahaman gambar dan dirilis di bawah lisensi Apache 2.0. Dipadukan dengan kemampuan multimodal dan multibahasa secara native, keluarga Ministral 3 menghadirkan solusi serbaguna untuk aplikasi perusahaan maupun pengembang.
Seri ini menawarkan rasio biaya terhadap performa yang luar biasa di antara model open-source, dengan varian instruct yang setara atau melampaui model sejenis sambil menghasilkan token yang jauh lebih sedikit. Untuk skenario di mana akurasi sangat penting, varian reasoning dapat melakukan komputasi lanjutan untuk mencapai akurasi terdepan di kelas bobotnya, seperti 85% pada AIME ’25 dengan model 14B.
Mistral 3 saat ini dapat diakses melalui Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, dan Together AI, dengan ketersediaan di NVIDIA NIM dan AWS SageMaker akan segera hadir.
Mistral tetap menjadi kontributor utama bagi ekosistem model AI dan inisiatif open-source di Eropa, meskipun model flagship terbarunya masih tertinggal di belakang pesaing industri papan atas dalam hal performa, kecepatan, dan biaya. Varian Ministral yang lebih kecil mungkin menawarkan alternatif yang lebih praktis, memberikan opsi fleksibel untuk beragam kasus penggunaan dan deployment di berbagai perangkat.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Mistral Luncurkan Mistral 3: Model Open-Source Generasi Berikutnya untuk AI Perusahaan dan Edge
Singkatnya
Mistral baru saja merilis Mistral 3, keluarga baru dari 10 model open-weight, yang dirancang untuk berjalan di segala perangkat mulai dari cloud konsumen hingga laptop, drone, dan robot.
Startup AI Mistral telah meluncurkan Mistral 3, generasi terbaru dari model-modelnya, yang menampilkan tiga model dense ringkas dan berkinerja tinggi dengan parameter 14B, 8B, dan 3B, bersama dengan Mistral Large 3, model paling canggih mereka hingga saat ini—sebuah sistem sparse mixture-of-experts yang dilatih dengan 41B parameter aktif dan 675B total parameter. Semua model tersedia di bawah lisensi Apache 2.0, memberikan akses open-source kepada pengembang dalam berbagai format terkompresi untuk mendukung aplikasi AI terdistribusi.
Model Ministral dirancang untuk efisiensi rasio performa terhadap biaya yang kuat, sementara Mistral Large 3 memposisikan dirinya di antara model open-source instruction-fine-tuned terdepan. Dilatih dari awal dengan 3.000 GPU NVIDIA H200, Mistral Large 3 menjadi rilis mixture-of-experts pertama perusahaan sejak seri Mixtral dan mewakili kemajuan signifikan dalam pra-pelatihan. Setelah post-training, model ini menyamai model open-weight instruction-tuned terbaik pada prompt umum dan menunjukkan pemahaman gambar tingkat lanjut serta kemampuan percakapan multibahasa yang unggul.
Mistral Large 3 memulai debutnya di peringkat #2 in the OSS non-reasoning models category and #6 secara keseluruhan pada papan peringkat LMArena. Versi dasar dan instruction-tuned keduanya dirilis di bawah Apache 2.0, menawarkan platform yang kokoh untuk kustomisasi perusahaan dan pengembang, dengan versi reasoning yang direncanakan akan dirilis di masa mendatang.
Mistral Bekerja Sama dengan NVIDIA, vLLM, dan Red Hat untuk Tingkatkan Aksesibilitas dan Performa Mistral 3
Mistral Large 3 telah dibuat sangat mudah diakses oleh komunitas open-source melalui kolaborasi dengan vLLM dan Red Hat. Sebuah checkpoint dalam format NVFP4, dioptimalkan dengan llm-compressor, memungkinkan eksekusi efisien pada sistem Blackwell NVL72 atau satu node 8×A100 atau 8×H100 menggunakan vLLM.
Pengembangan model AI open-source tingkat lanjut bergantung pada optimasi perangkat keras dan perangkat lunak secara ekstensif, yang dicapai melalui kemitraan dengan NVIDIA. Semua model Mistral 3, termasuk Large 3 dan Ministral 3, dilatih pada GPU NVIDIA Hopper, memanfaatkan memori HBM3e berbandwidth tinggi untuk beban kerja berskala besar. Pendekatan co-design NVIDIA mengintegrasikan perangkat keras, perangkat lunak, dan model untuk memungkinkan inferensi efisien menggunakan TensorRT-LLM dan SGLang di seluruh keluarga Mistral 3, mendukung eksekusi presisi rendah.
Untuk arsitektur sparse mixture-of-experts pada Large 3, NVIDIA mengimplementasikan Blackwell attention dan kernel MoE, menambahkan prefill/decode disaggregated serving, dan berkolaborasi pada speculative decoding, memungkinkan pengembang menangani beban kerja konteks panjang dan throughput tinggi pada sistem GB200 NVL72 dan seterusnya. Model Ministral juga dioptimalkan untuk deployment pada DGX Spark, PC dan laptop RTX, serta perangkat Jetson, memberikan pengalaman kinerja tinggi yang konsisten dari pusat data hingga aplikasi edge. Mistral menyampaikan terima kasih kepada vLLM, Red Hat, dan NVIDIA atas dukungan dan kolaborasi mereka.
Ministral 3: Performa AI Tingkat Lanjut untuk Edge dan Deployment Lokal
Seri Ministral 3 dirancang untuk deployment edge dan lokal, ditawarkan dalam tiga ukuran—3B, 8B, dan 14B parameter. Setiap ukuran tersedia dalam varian base, instruct, dan reasoning, semuanya memiliki fitur pemahaman gambar dan dirilis di bawah lisensi Apache 2.0. Dipadukan dengan kemampuan multimodal dan multibahasa secara native, keluarga Ministral 3 menghadirkan solusi serbaguna untuk aplikasi perusahaan maupun pengembang.
Seri ini menawarkan rasio biaya terhadap performa yang luar biasa di antara model open-source, dengan varian instruct yang setara atau melampaui model sejenis sambil menghasilkan token yang jauh lebih sedikit. Untuk skenario di mana akurasi sangat penting, varian reasoning dapat melakukan komputasi lanjutan untuk mencapai akurasi terdepan di kelas bobotnya, seperti 85% pada AIME ’25 dengan model 14B.
Mistral 3 saat ini dapat diakses melalui Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, dan Together AI, dengan ketersediaan di NVIDIA NIM dan AWS SageMaker akan segera hadir.
Mistral tetap menjadi kontributor utama bagi ekosistem model AI dan inisiatif open-source di Eropa, meskipun model flagship terbarunya masih tertinggal di belakang pesaing industri papan atas dalam hal performa, kecepatan, dan biaya. Varian Ministral yang lebih kecil mungkin menawarkan alternatif yang lebih praktis, memberikan opsi fleksibel untuk beragam kasus penggunaan dan deployment di berbagai perangkat.