Baru saja mengalami sesuatu yang liar selama sesi pengujian model AI saya. Tidak bisa memberikan pertanyaan tepat yang saya gunakan, tapi inilah yang terjadi: mengajukan pertanyaan yang sengaja rumit tanpa jawaban yang benar kepada berbagai model.
Setiap yang telah saya uji sejauh ini? Mereka semua dengan percaya diri mengeluarkan sesuatu yang terdengar masuk akal. Anda tahu, jenis respons yang terlihat cerdas sampai Anda menyadari mereka sepenuhnya melewatkan jebakan.
Tapi model unggulan terbaru yang saya coba ini? Untuk pertama kalinya - ia benar-benar berhenti dan berkata "tunggu, pertanyaan ini tidak memiliki jawaban yang valid." Tidak mencoba untuk mengelak. Hanya mengakui ketidakmungkinan logis.
Jujur saja, saya terkesan. Mungkin akan menjalankan lebih banyak tes untuk melihat apakah ini tetap berlaku di berbagai jenis pertanyaan yang menipu. Kemampuan untuk mengenali pertanyaan yang tidak dapat dijawab kurang dihargai - menunjukkan penalaran yang sebenarnya dibandingkan dengan pencocokan pola.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
20 Suka
Hadiah
20
7
Posting ulang
Bagikan
Komentar
0/400
GasFeeNightmare
· 22jam yang lalu
ngl ini adalah kemajuan yang sebenarnya, yang lain hanya mengarang cerita
Lihat AsliBalas0
SigmaValidator
· 22jam yang lalu
Eh, ini cukup menarik, akhirnya ada model yang berani mengakui "saya tidak tahu".
Lihat AsliBalas0
ProofOfNothing
· 23jam yang lalu
Orang ini menemukan sesuatu yang cukup menarik, akhirnya ada model yang berani mengatakan "saya tidak tahu".
Lihat AsliBalas0
0xSoulless
· 23jam yang lalu
Hah, akhirnya ada model yang berani bilang "Aku tidak tahu". Ini baru kemajuan yang nyata.
Lihat AsliBalas0
NFTPessimist
· 23jam yang lalu
Ini adalah kecerdasan yang sebenarnya, bukan jebakan jawaban yang dikodekan secara keras.
Lihat AsliBalas0
GasFeeCryer
· 23jam yang lalu
ngl ini baru kemajuan yang sebenarnya, bukan sekedar mengarang data untuk menipu orang
Lihat AsliBalas0
CafeMinor
· 23jam yang lalu
Sial, akhirnya ada model yang berani mengatakan "saya tidak tahu". Ini baru kemajuan sejati.
Baru saja mengalami sesuatu yang liar selama sesi pengujian model AI saya. Tidak bisa memberikan pertanyaan tepat yang saya gunakan, tapi inilah yang terjadi: mengajukan pertanyaan yang sengaja rumit tanpa jawaban yang benar kepada berbagai model.
Setiap yang telah saya uji sejauh ini? Mereka semua dengan percaya diri mengeluarkan sesuatu yang terdengar masuk akal. Anda tahu, jenis respons yang terlihat cerdas sampai Anda menyadari mereka sepenuhnya melewatkan jebakan.
Tapi model unggulan terbaru yang saya coba ini? Untuk pertama kalinya - ia benar-benar berhenti dan berkata "tunggu, pertanyaan ini tidak memiliki jawaban yang valid." Tidak mencoba untuk mengelak. Hanya mengakui ketidakmungkinan logis.
Jujur saja, saya terkesan. Mungkin akan menjalankan lebih banyak tes untuk melihat apakah ini tetap berlaku di berbagai jenis pertanyaan yang menipu. Kemampuan untuk mengenali pertanyaan yang tidak dapat dijawab kurang dihargai - menunjukkan penalaran yang sebenarnya dibandingkan dengan pencocokan pola.