Ruta de navegación

Buenas prácticas para el uso responsable de IA

Buenas prácticas para el uso responsable de IA

El uso de herramientas de inteligencia artificial en la universidad puede aportar beneficios relevantes en docencia, aprendizaje e investigación. Sin embargo, existen situaciones especialmente sensibles que requieren un uso prudente, supervisado y alineado con los principios de integridad académica, transparencia y respeto a los derechos fundamentales.

Idea clave: La IA puede apoyar procesos académicos, pero las decisiones evaluativas y las responsabilidades docentes no pueden delegarse en sistemas automáticos.

Evaluación y calificación del estudiantado

La IA puede utilizarse como apoyo en tareas de corrección, revisión o mejora de textos, pero no debe decidir ni asignar calificaciones de forma autónoma. La evaluación académica es una responsabilidad docente y debe estar siempre supervisada por una persona, especialmente cuando tiene consecuencias formativas o administrativas para el estudiantado.

Proctoring basado en IA en exámenes

El uso de sistemas de proctoring basados en IA es particularmente sensible. Este tipo de tecnologías puede afectar a la privacidad, la presunción de honestidad y otros derechos fundamentales, por lo que no debe utilizarse de forma automática ni generalizada. En cualquier caso, su aplicación requiere una valoración previa y específica de su adecuación legal, ética y organizativa, atendiendo al contexto concreto de evaluación.

Uso de IA en TFG, TFM o tesis doctorales

El uso de IA generativa como herramienta de apoyo —por ejemplo, para organizar ideas, mejorar el estilo o realizar traducciones de apoyo— no se considera, en sí mismo, una práctica de especial sensibilidad. No obstante, ocultar su uso o delegar en la IA la autoría académica vulnera los principios de integridad académica. Por ello, cualquier uso debe declararse conforme a las directrices establecidas por la universidad.