Buenas prácticas para el uso responsable de IA
El uso de herramientas de inteligencia artificial en la universidad puede aportar beneficios relevantes en docencia, aprendizaje e investigación. Sin embargo, existen situaciones especialmente sensibles que requieren un uso prudente, supervisado y alineado con los principios de integridad académica, transparencia y respeto a los derechos fundamentales.
Evaluación y calificación del estudiantado
La IA puede utilizarse como apoyo en tareas de corrección, revisión o mejora de textos, pero no debe decidir ni asignar calificaciones de forma autónoma. La evaluación académica es una responsabilidad docente y debe estar siempre supervisada por una persona, especialmente cuando tiene consecuencias formativas o administrativas para el estudiantado.
Proctoring basado en IA en exámenes
El uso de sistemas de proctoring basados en IA es particularmente sensible. Este tipo de tecnologías puede afectar a la privacidad, la presunción de honestidad y otros derechos fundamentales, por lo que no debe utilizarse de forma automática ni generalizada. En cualquier caso, su aplicación requiere una valoración previa y específica de su adecuación legal, ética y organizativa, atendiendo al contexto concreto de evaluación.
Uso de IA en TFG, TFM o tesis doctorales
El uso de IA generativa como herramienta de apoyo —por ejemplo, para organizar ideas, mejorar el estilo o realizar traducciones de apoyo— no se considera, en sí mismo, una práctica de especial sensibilidad. No obstante, ocultar su uso o delegar en la IA la autoría académica vulnera los principios de integridad académica. Por ello, cualquier uso debe declararse conforme a las directrices establecidas por la universidad.