在我進行AI模型測試時偶然遇到了一些瘋狂的事情。不能透露我使用的具體問題,但發生了這樣的事情:向各種模型提出了一個故意棘手且沒有正確答案的問題。
到目前爲止我測試過的每一個?它們都自信地吐出一些聽起來合理的東西。你知道,那種看起來聰明的回應,直到你意識到它們完全錯過了圈套。
但是我嘗試的這個最新旗艦型號?第一次 - 它實際上停下來並說“等一下,這個問題沒有有效的答案。”沒有試圖胡說八道。只是承認了邏輯上的不可能。
老實說,我很驚訝。可能會進行更多的下探,以看看這是否適用於不同類型的陷阱問題。識別無法回答的提示的能力被低估了——這顯示了真正的推理能力,而不是模式匹配。
查看原文