Le problème des hallucinations des modèles d'IA, souvent simplement compris comme un échec de prédiction. Mais en réalité, il existe une autre forme d'échec — lorsque l'humain ne fournit pas de cadre logique clair, l'IA interprète mal la structure du raisonnement.
Ce n'est pas seulement une question technique, mais aussi un défaut au niveau de l'enseignement et de la cognition. Lorsqu'il traite des relations logiques implicites, l'IA a tendance à dévier dans un champ d'informations distribué sans guide explicite. En d'autres termes, il s'agit d'une
"mismatch" dans la
"façon d'apprendre" — le s
Voir l'original