Topik keamanan AI sedang memunculkan diskusi yang menarik. Tampaknya pendapat berbeda muncul di kalangan para ahli mengenai risiko penyalahgunaan alat AI sumber terbuka.



Sebagian pihak yang berkaitan dengan keamanan sangat memperingatkan tentang potensi bahaya dari OSS. Mereka menunjukkan bahwa pengguna yang berniat jahat dapat menggunakan alat ini secara ilegal, dan bahaya AI terletak di sana. Namun, yang menarik adalah, jika melihat data nyata, ceritanya sedikit berbeda.

Banyak peneliti menunjukkan bahwa sebagian besar bahaya AI yang nyata sebenarnya terkait dengan sistem milik perusahaan besar seperti OpenAI dan Claude. Dengan kata lain, masalah bukan hanya pada sumber terbuka saja. Lebih dari itu, para ahli keamanan biologi juga muncul dan berpendapat bahwa perangkat lunak dan teknologi sequencing bukanlah faktor pembatas utama.

Singkatnya, saat membahas bahaya AI, fokus hanya pada sumber terbuka mungkin tidak lengkap. Kita perlu melihat di mana ancaman sebenarnya dengan lebih tenang dan objektif.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan