Apakah kamu pernah berpikir, setiap kali berbicara dengan AI, mengunggah file untuk dianalisis, barang-barangmu sebenarnya terbang ke server yang ribuan kilometer jauhnya? Rekaman percakapan, kontrak, foto... semuanya di bawah pengawasan orang lain. Kamu hanya bisa melongo, lalu memberi tahu diri sendiri "seharusnya tidak apa-apa" - perasaan ini mirip dengan menyerahkan buku harian kepada orang asing, ada sedikit rasa cemas di dalam hati.
Sekarang AI pada umumnya seperti ini: demi kecepatan dan kemudahan, kita menyerahkan semua data dan kontrol, tetapi bagaimana sebenarnya itu diproses, siapa yang bisa melihat, semuanya dalam kotak hitam. Sekali bocor, semuanya bocor, mempercayai siapa pun terasa mencurigakan.
Apakah ada cara bermain yang tidak membuat cemas seperti ini?
Baru-baru ini saya melihat sebuah proyek bernama Nesa @nesaorg, idenya cukup keras: permintaan yang Anda kirim (misalnya "tolong periksa apakah ada masalah dalam kontrak ini") sepenuhnya terenkripsi.
Lalu, ia memecah model besar menjadi sekelompok kecil potongan, dan melemparkannya ke ribuan node di seluruh dunia untuk dihitung. Yang mengagumkan adalah — 🔹Tidak ada node yang dapat memahami data lengkap Anda 🔹tidak ada node yang dapat mengambil model lengkap
Setiap node hanya memproses potongan kecil enkripsi miliknya, setelah selesai menghitung, hasilnya digabungkan, dan akhirnya dibuktikan kepada Anda untuk memeriksa barangnya, memastikan tidak ada yang diam-diam merusak.
Perubahan yang dibawa sebenarnya cukup nyata: 🔹Data Anda sama sekali tidak telanjang, tidak ada yang bisa melihatnya. 🔹Model itu sendiri juga dirahasiakan, orang yang melatih model tersebut juga tidak takut dicuri 🔹Jawaban bukanlah sesuatu yang ditentukan oleh satu perusahaan saja, tetapi divalidasi bersama oleh seluruh jaringan, jauh lebih dapat diandalkan.
Secara sederhana, Anda tetap dapat menggunakan AI yang sangat kuat, tetapi seluruh proses dapat dilihat dan diverifikasi, tanpa harus mempertaruhkan privasi pada "tolong percayai kami".
Bagi orang biasa, mungkin hanya ada satu tambahan rasa tenang;
Untuk industri seperti keuangan, kesehatan, dan hukum yang sering memeriksa kepatuhan data, ini mungkin satu-satunya cara untuk berani menerapkan AI.
@nesaorg @KaitoAI
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Apakah kamu pernah berpikir, setiap kali berbicara dengan AI, mengunggah file untuk dianalisis, barang-barangmu sebenarnya terbang ke server yang ribuan kilometer jauhnya? Rekaman percakapan, kontrak, foto... semuanya di bawah pengawasan orang lain. Kamu hanya bisa melongo, lalu memberi tahu diri sendiri "seharusnya tidak apa-apa" - perasaan ini mirip dengan menyerahkan buku harian kepada orang asing, ada sedikit rasa cemas di dalam hati.
Sekarang AI pada umumnya seperti ini: demi kecepatan dan kemudahan, kita menyerahkan semua data dan kontrol, tetapi bagaimana sebenarnya itu diproses, siapa yang bisa melihat, semuanya dalam kotak hitam. Sekali bocor, semuanya bocor, mempercayai siapa pun terasa mencurigakan.
Apakah ada cara bermain yang tidak membuat cemas seperti ini?
Baru-baru ini saya melihat sebuah proyek bernama Nesa @nesaorg, idenya cukup keras: permintaan yang Anda kirim (misalnya "tolong periksa apakah ada masalah dalam kontrak ini") sepenuhnya terenkripsi.
Lalu, ia memecah model besar menjadi sekelompok kecil potongan, dan melemparkannya ke ribuan node di seluruh dunia untuk dihitung. Yang mengagumkan adalah —
🔹Tidak ada node yang dapat memahami data lengkap Anda
🔹tidak ada node yang dapat mengambil model lengkap
Setiap node hanya memproses potongan kecil enkripsi miliknya, setelah selesai menghitung, hasilnya digabungkan, dan akhirnya dibuktikan kepada Anda untuk memeriksa barangnya, memastikan tidak ada yang diam-diam merusak.
Perubahan yang dibawa sebenarnya cukup nyata:
🔹Data Anda sama sekali tidak telanjang, tidak ada yang bisa melihatnya.
🔹Model itu sendiri juga dirahasiakan, orang yang melatih model tersebut juga tidak takut dicuri
🔹Jawaban bukanlah sesuatu yang ditentukan oleh satu perusahaan saja, tetapi divalidasi bersama oleh seluruh jaringan, jauh lebih dapat diandalkan.
Secara sederhana, Anda tetap dapat menggunakan AI yang sangat kuat, tetapi seluruh proses dapat dilihat dan diverifikasi, tanpa harus mempertaruhkan privasi pada "tolong percayai kami".
Bagi orang biasa, mungkin hanya ada satu tambahan rasa tenang;
Untuk industri seperti keuangan, kesehatan, dan hukum yang sering memeriksa kepatuhan data, ini mungkin satu-satunya cara untuk berani menerapkan AI.
@nesaorg @KaitoAI