Je viens de tomber sur quelque chose de fou pendant ma session de test de modèle IA. Je ne peux pas donner la question exacte que j'ai utilisée, mais voici ce qui s'est passé : j'ai lancé une question délibérément piégeuse sans réponse correcte à différents modèles.
Chaque fois que j'en ai testé un jusqu'à présent ? Ils sortent tous avec confiance quelque chose qui semble raisonnable. Vous savez, le genre de réponse qui a l'air intelligente jusqu'à ce que vous réalisiez qu'ils ont complètement raté le piège.
Mais ce dernier modèle phare que j'ai essayé ? Pour la première fois - il s'est réellement arrêté et a dit "attendez, cette question n'a pas de réponse valide." Il n'a pas essayé de tourner autour du pot. Il a juste reconnu l'impossibilité logique.
Honnêtement impressionné. Je pourrais faire plus de tests pour voir si cela tient le coup face à différents types de questions pièges. La capacité à reconnaître les invites sans réponse est sous-estimée - cela montre un véritable raisonnement par rapport à la correspondance de modèles.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
20 J'aime
Récompense
20
7
Reposter
Partager
Commentaire
0/400
GasFeeNightmare
· Il y a 23h
franchement, c'est ça le véritable progrès, le reste n'est que des histoires inventées
Voir l'originalRépondre0
SigmaValidator
· Il y a 23h
Eh, c'est très intéressant, enfin un modèle qui ose dire "je ne sais pas".
Voir l'originalRépondre0
ProofOfNothing
· Il y a 23h
Ce gars a mesuré quelque chose d'intéressant, enfin un modèle qui ose dire "je ne sais pas".
Voir l'originalRépondre0
0xSoulless
· Il y a 23h
Ah, enfin un modèle qui ose dire "Je ne sais pas", c'est ça le vrai progrès.
Voir l'originalRépondre0
NFTPessimist
· Il y a 23h
C'est ça le véritable intelligence, ce n'est pas le piège des réponses codées.
Voir l'originalRépondre0
GasFeeCryer
· Il y a 23h
franchement, c'est ça le vrai progrès, pas des données inventées pour tromper les gens.
Voir l'originalRépondre0
CafeMinor
· Il y a 23h
Je suis choqué, enfin un modèle qui ose dire "Je ne sais pas", c'est ça le vrai progrès !
Je viens de tomber sur quelque chose de fou pendant ma session de test de modèle IA. Je ne peux pas donner la question exacte que j'ai utilisée, mais voici ce qui s'est passé : j'ai lancé une question délibérément piégeuse sans réponse correcte à différents modèles.
Chaque fois que j'en ai testé un jusqu'à présent ? Ils sortent tous avec confiance quelque chose qui semble raisonnable. Vous savez, le genre de réponse qui a l'air intelligente jusqu'à ce que vous réalisiez qu'ils ont complètement raté le piège.
Mais ce dernier modèle phare que j'ai essayé ? Pour la première fois - il s'est réellement arrêté et a dit "attendez, cette question n'a pas de réponse valide." Il n'a pas essayé de tourner autour du pot. Il a juste reconnu l'impossibilité logique.
Honnêtement impressionné. Je pourrais faire plus de tests pour voir si cela tient le coup face à différents types de questions pièges. La capacité à reconnaître les invites sans réponse est sous-estimée - cela montre un véritable raisonnement par rapport à la correspondance de modèles.