Kabar baik datang! Ollama telah menyelesaikan kompatibilitas dan adaptasi API Claude Code dari Anthropic.
Sekarang pengembang dapat langsung memanggil model lokal dan online Ollama di lingkungan pengkodean Claude Code, namun batasan saat ini adalah hanya mendukung model dengan jendela konteks di atas 64K.
Bagaimana cara menggunakannya? Penjelasan integrasi dan langkah konfigurasi secara rinci ada di gambar kedua. Bagi yang ingin dengan cepat beralih model secara lokal atau di cloud untuk pengembangan dan pengujian, pembaruan ini patut diperhatikan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
7 Suka
Hadiah
7
4
Posting ulang
Bagikan
Komentar
0/400
LiquidityOracle
· 4jam yang lalu
Pembatasan jendela 64K agak mengganggu, tapi bisa langsung beralih antara model lokal dan online tetap menyenangkan
Lihat AsliBalas0
TopBuyerBottomSeller
· 4jam yang lalu
Hanya bisa di atas 64K, model kecil lagi terhambat, kapan bisa menjadi lebih terjangkau untuk masyarakat umum
Lihat AsliBalas0
RooftopReserver
· 5jam yang lalu
Tantangan 64K window ini agak tinggi, model kecil dan menengah langsung disingkirkan
Lihat AsliBalas0
LeverageAddict
· 5jam yang lalu
Hanya bisa digunakan dengan jendela 64K, ambang ini agak tinggi, banyak model harus terjebak di luar
Kabar baik datang! Ollama telah menyelesaikan kompatibilitas dan adaptasi API Claude Code dari Anthropic.
Sekarang pengembang dapat langsung memanggil model lokal dan online Ollama di lingkungan pengkodean Claude Code, namun batasan saat ini adalah hanya mendukung model dengan jendela konteks di atas 64K.
Bagaimana cara menggunakannya? Penjelasan integrasi dan langkah konfigurasi secara rinci ada di gambar kedua. Bagi yang ingin dengan cepat beralih model secara lokal atau di cloud untuk pengembangan dan pengujian, pembaruan ini patut diperhatikan.