Ruta de navegación

Garantías en el uso de la IA según EU AI Act

Garantías en el uso de la IA según EU AI Act

La incorporación de herramientas de Inteligencia Artificial en la universidad no es únicamente una cuestión tecnológica o pedagógica, sino también jurídica, ética y organizativa.

El Reglamento de Inteligencia Artificial de la Unión Europea (EU AI Act) establece un marco legal común que introduce obligaciones diferenciadas en función del nivel de riesgo de los sistemas de IA y de su impacto potencial sobre los derechos fundamentales de las personas.

La educación superior se encuentra explícitamente contemplada en este enfoque basado en el riesgo. Determinados usos de la IA en el ámbito universitario —como los relacionados con la admisión del estudiantado, la evaluación del aprendizaje, la asignación de niveles formativos o la supervisión de comportamientos en contextos evaluativos— pueden considerarse usos de especial sensibilidad, lo que conlleva mayores exigencias en términos de transparencia, supervisión humana, calidad, trazabilidad y rendición de cuentas.

El enfoque del EU AI Act: regulación basada en el riesgo

El Reglamento Europeo de Inteligencia Artificial (EU AI Act) no regula todos los sistemas de IA de la misma manera. Su principio central es un enfoque basado en el riesgo, que clasifica los usos de la IA en función del impacto potencial que pueden tener sobre las personas, sus derechos fundamentales y sus oportunidades vitales.

Desde esta perspectiva, la clave no es la tecnología en sí, sino para qué se utiliza y qué consecuencias puede generar. Un mismo sistema de IA puede considerarse de riesgo bajo en un contexto y de riesgo elevado en otro, dependiendo de si influye —o no— en decisiones relevantes para las personas.

De forma simplificada, el EU AI Act distingue entre:

  • Usos prohibidos, por vulnerar derechos fundamentales.
  • Usos de alto riesgo, permitidos únicamente bajo condiciones estrictas.
  • Usos de riesgo limitado, sujetos a obligaciones de transparencia.
  • Usos de riesgo mínimo, sin obligaciones adicionales específicas.

La mayoría de aplicaciones habituales de IA generativa en docencia, aprendizaje, investigación o gestión universitaria no se consideran automáticamente de alto riesgo. No obstante, el reglamento identifica ámbitos especialmente sensibles, entre los que se incluye de forma expresa la educación y la formación, cuando la IA influye en decisiones que pueden afectar de manera significativa a la trayectoria académica o profesional de las personas.