El problema de las alucinaciones en los modelos de IA, que generalmente se entiende como un fallo en la predicción, en realidad presenta otro modo de fallo: cuando los humanos no proporcionan un marco lógico claro, la IA malinterpreta la estructura del razonamiento.
Esto no es solo un problema técnico, sino que también involucra deficiencias en la enseñanza y en la cognición. Cuando la IA maneja relaciones lógicas implícitas, tiende a desviarse en un campo de información distribuida que carece de una guía explícita. En otras palabras, se trata de una
"desajuste en la forma de aprender" — el si
Ver originales