O problema das alucinações dos modelos de IA, geralmente entendido como uma falha de previsão, na verdade apresenta um outro padrão de falha — quando os humanos não fornecem uma estrutura lógica clara, a IA interpreta erroneamente a estrutura de raciocínio.
Isso não é apenas uma questão técnica, mas também envolve deficiências no ensino e na cognição. Ao lidar com relações lógicas implícitas, a IA tende a gerar desvios em um campo de informações distribuídas sem uma orientação explícita. Em outras palavras, trata-se de uma
"desalinhamento de modo de aprendizagem" — o sistema, ao tentar preench
Ver original