AAren haluzinazioak

Las alucinaciones de la IA

Las alucinaciones son uno de los fenómenos más característicos y problemáticos de la IA generativa. Se producen cuando el modelo genera información falsa, no comprobable o imprecisa, pero la presenta con una redacción clara, convincente y aparentemente fundamentada. Este efecto hace que, para un usuario no especializado, sea difícil distinguir la respuesta correcta de la inventada.

La IA alucina porque su objetivo no es verificar datos, sino predecir la frase más probable según su entrenamiento.

Cuando no dispone de suficiente información, cuando el prompt es ambiguo o cuando el modelo infiere más de lo que realmente sabe, completa los huecos inventando detalles que parecen razonables.

Ejemplos frecuentes en el ámbito académico:

  • Referencias bibliográficas que no existen, con DOI falsos
  • Leyes, normativas o protocolos inventados
  • Atribución de teorías o conceptos a autores equivocados
  • Explicaciones que mezclan ideas incompatibles
  • Cifras, porcentajes o fechas generadas sin ninguna fuente
  • Definiciones correctas en la forma pero equivocadas en el contenido
Las alucinaciones no implican mala intención ni error técnico aislado: son inherentes a la forma en que la IA genera contenido.

Es tan importante detectar las alucinaciones y revisarlas en cualquier contexto docente o investigador.