Criterios generales y garantías de uso
Transparencia en la declaración del uso de Inteligencia Artificial
Esta recomendación resulta especialmente relevante en el caso de:
- Trabajos de asignaturas
- Trabajos Fin de Grado (TFG)
- Trabajos Fin de Máster (TFM)
- Tesis doctorales
Con el fin de favorecer una práctica homogénea y comprensible, dichas orientaciones pueden remitir a los formatos, procedimientos o plantillas institucionales que, en su caso, se encuentren disponibles para la declaración del uso de sistemas de Inteligencia Artificial. (Más información)
La ausencia de información clara sobre el uso de estos sistemas puede generar incertidumbre en relación con la autoría y el proceso de elaboración de los trabajos, por lo que se recomienda actuar con criterios de transparencia y responsabilidad académica.
Integridad académica y autoría
Desde una perspectiva de integridad académica, resulta fundamental que la utilización de sistemas de Inteligencia Artificial se realice de forma transparente. En este sentido, se considera una buena práctica declarar el uso de sistemas de IA en la elaboración de contenidos y no presentar como propio aquel contenido generado total o parcialmente mediante estos sistemas sin dicha declaración.
La falta de transparencia en el uso de estos sistemas puede entrar en conflicto con los principios de honestidad e integridad académica que rigen la actividad universitaria, por lo que se recomienda actuar con responsabilidad y criterio crítico en su utilización.
Evaluación académica y calificación
Desde una perspectiva de uso responsable, se considera especialmente relevante que la corrección final, la asignación de puntuaciones y la calificación del estudiantado sigan siendo asumidas por el profesorado, evitando que estas decisiones queden delegadas en sistemas automatizados.
Asimismo, resulta aconsejable evitar el diseño de procesos de evaluación en los que, de forma directa o indirecta, la decisión académica final quede condicionada por sistemas de Inteligencia Artificial o se base en resultados generados de manera automática. El uso de la IA no debería sustituir el juicio profesional ni el razonamiento pedagógico que fundamentan la evaluación del aprendizaje.
Usos de especial sensibilidad en la aplicación de sistemas de Inteligencia Artificial
En estos contextos, resulta especialmente relevante actuar con cautela, promover la supervisión humana efectiva y atender a principios como la transparencia, la responsabilidad y la prevención de posibles sesgos.
A modo orientativo, se consideran ámbitos de especial sensibilidad aquellos en los que los sistemas de Inteligencia Artificial pueden intervenir, entre los que se incluyen:
- Procesos de admisión o acceso a estudios
- Evaluación del aprendizaje o del rendimiento académico
- Asignación de niveles, itinerarios, apoyos o clasificaciones educativas
- Sistemas de supervisión o vigilancia en pruebas evaluables, incluidos entornos de proctoring
- Decisiones con impacto directo en derechos u oportunidades académicas
En estos ámbitos, se recomienda extremar las cautelas y asegurar que las decisiones relevantes sean comprendidas, revisadas y asumidas por personas responsables, evitando automatismos que puedan limitar la equidad o la rendición de cuentas.