GM UNTUK SEMUA ORANG ☀️


Ketika Jensen Huang menyebutkan pelatihan AI terdesentralisasi, perhatian langsung beralih ke Bittensor.
Tapi ini sudah dieksplorasi jauh sebelum saat itu.
Pada Juni 2025, @0G_labs menerbitkan makalah DiLoCoX di arXiv, menunjukkan bahwa pelatihan model skala besar di seluruh node terdesentralisasi jauh lebih efisien.
Mereka menunjukkan pelatihan lebih dari 100M+ parameter dengan perangkat keras standar dan internet biasa, sambil meningkatkan efisiensi komunikasi sebesar 357x dibandingkan metode tradisional.
Ada juga perbedaan utama yang sering terlewatkan. Bittensor fokus pada jaringan terlatih tertentu, sementara DiLoCoX dirancang sebagai kerangka kerja yang dapat digunakan untuk melatih model apa pun.
Ini juga bagian dari tumpukan yang lebih luas yang menggabungkan komputasi, penyimpanan, ketersediaan data, dan rantai.
Berikutnya: EthCC Cannes 2025 pada 1 April 📍
0G1,82%
Lihat Asli
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan