Las alucinaciones de la IA
Las alucinaciones son uno de los fenómenos más característicos y problemáticos de la IA generativa. Se producen cuando el modelo genera información falsa, no comprobable o imprecisa, pero la presenta con una redacción clara, convincente y aparentemente fundamentada. Este efecto hace que, para un usuario no especializado, sea difícil distinguir la respuesta correcta de la inventada.
La IA alucina porque su objetivo no es verificar datos, sino predecir la frase más probable según su entrenamiento.
Cuando no dispone de suficiente información, cuando el prompt es ambiguo o cuando el modelo infiere más de lo que realmente sabe, completa los huecos inventando detalles que parecen razonables.
Ejemplos frecuentes en el ámbito académico:
- Referencias bibliográficas que no existen, con DOI falsos
- Leyes, normativas o protocolos inventados
- Atribución de teorías o conceptos a autores equivocados
- Explicaciones que mezclan ideas incompatibles
- Cifras, porcentajes o fechas generadas sin ninguna fuente
- Definiciones correctas en la forma pero equivocadas en el contenido
Es tan importante detectar las alucinaciones y revisarlas en cualquier contexto docente o investigador.