Los controles europeos para mitigar el sesgo en los sistemas sanitarios de IA son insuficientes
Iñigo de Miguel cuestiona el hecho de utilizar siempre bases de datos mayores para mejorar los problemas de discriminación de los sistemas sanitarios que utilizan IA
- Investigación
Fecha de primera publicación: 22/05/2025
Iñigo de Miguel, profesor Ikerbasque de la UPV/EHU, ha publicado en la revista Bioethics un análisis sobre los mecanismos utilizados en Europa para verificar que los sistemas sanitarios basados en IA funcionan de forma segura y sin incurrir en prácticas discriminatorias y perjudiciales. El investigador sugiere políticas alternativas para afrontar el problema del sesgo en este tipo de sistemas.
Los sistemas de inteligencia artificial se utilizan cada vez más en todos los sectores, también en el sanitario. Se pueden utilizar con distintas finalidades; sirvan como ejemplo los sistemas de soporte diagnóstico (por ejemplo, un sistema ampliamente utilizado en dermatología para determinar si un lunar puede generar un melanoma) o los sistemas de recomendación de tratamiento (los cuales, introduciendo diversos parámetros, pueden proponer el tipo de tratamiento que mejor puede adaptarse al paciente).
Su capacidad para mejorar y transformar la atención sanitaria conlleva riesgos inevitables. Uno de los mayores problemas que presentan los sistemas de inteligencia artificial son los sesgos: “Un sesgo significa que haya discriminación en lo que esté señalando un sistema de IA. Los sesgos son un serio problema en el ámbito sanitario, porque no solo hacen que se pierda precisión, sino que además afectan especialmente a algunos sectores de la población”, explica De Miguel. Supongamos que utilizamos un sistema que ha sido entrenado con personas de una población en la que predomina la piel muy clara; ese sistema tiene un sesgo evidente, porque no funciona bien con pieles más morenas. El investigador pone especial atención en la propagación de sesgos a lo largo del ciclo de vida del sistema, ya que “los sistemas basados en IA más complejos van cambiando, no son estables”.
El profesor de la Universidad del País Vasco ha publicado en la revista Bioethics un artículo en el que analiza diferentes políticas para mitigar el sesgo en los sistemas sanitarios de IA, incluidas en la Ley de Inteligencia Artificial y en la propuesta del Espacio Europeo de Datos de Salud (EEDS). De Miguel argumenta que “la normativa europea sobre productos sanitarios podría resultar inadecuada para abordar este desafío, no solo técnico sino también social. Muchas de las formas de verificación de productos sanitarios están basados en otra época, en la que no existía la IA. La normativa actual está pensada para investigación biomédica clásica, en la que todo es relativamente estable”.
Sobre la utilización de mayores cantidades de datos
El investigador se suma a la idea de que “es hora de ser creativos en las soluciones políticas a esta difícil cuestión en la que hay tanto en juego”. De Miguel reconoce que las estrategias de validación de estos sistemas son muy complicadas, pero cuestiona el hecho de que se permita “tratar grandes cantidades de datos personales, sensibles, para ver si efectivamente se pueden corregir estos problemas de sesgo. Esta estrategia puede generar riesgos, sobre todo de privacidad. Limitarse a arrojar más datos al problema parece una solución reduccionista que se centra exclusivamente en los componentes técnicos de los sistemas, entendiendo el sesgo exclusivamente como una cuestión del código y sus datos. Si se necesitan más datos, es evidente que debemos analizar dónde y cómo se procesan”.
En ese sentido, el investigador considera que el conjunto de políticas analizadas en la Ley de IA y en la propuesta de EEDS “son especialmente sensibles a la hora de establecer salvaguardias y limitaciones sobre dónde y cómo se procesarán los datos para mitigar estos sesgos. Pero también habría que ver quién tiene derecho a comprobar si los sesgos se abordan adecuadamente y en qué fases del ciclo de vida del sistema sanitario de IA. En este punto, las políticas pueden no ser tan ambiciosas”.
Bancos de pruebas normativos o sandboxes
De Miguel sugiere en el artículo la posibilidad de incluir mecanismos de validación obligatorios no sólo para las fases de diseño y desarrollo, sino también para la aplicación posterior a la comercialización. “No siempre se consigue un sistema mejor por meter muchos más datos. Hay veces que hay que testarlo de otras maneras”. Un ejemplo de ello sería la creación de bancos de pruebas normativos de atención sanitaria digital para la evaluación sistemática de la IA de las tecnologías a entornos reales. “De la misma manera que los nuevos medicamentos se prueban en pequeña escala si funcionan o no, los sistemas de IA, en vez de probarlos a gran escala, deberían de probarse a escala de un solo hospital, por ejemplo. Y una vez que se vea que funciona, que es seguro, etc., abrirlo a otros sitios”.
De Miguel sugiere a las instituciones que ya forman parte de los sectores de la investigación biomédica y la atención sanitaria, como las agencias de evaluación o los comités de ética, una participación más proactiva, y que se permita el acceso a la validación en entornos seguros a terceros —incluida la sociedad civil— que pretendan verificar que los sistemas sanitarios de IA funcionan de forma segura y sin incurrir en prácticas discriminatorias y perjudiciales.
“Somos conscientes de que la inteligencia artificial va a traer problemas. Es importante ver cómo los mitigamos, porque eliminarlos es casi imposible. Al final, esta es una cuestión de cómo reducir lo inevitable, porque no podemos renunciar a la IA, ni se debe renunciar a ella. Va a haber problemas en el camino, y debemos intentar solucionarlos de la mejor manera posible, comprometiendo lo menos que se pueda los derechos fundamentales”, concluye De Miguel.
Información complementaria
Iñigo de Miguel Beriain es doctor en Filosofía, Derecho e Investigación Biomédica. Trabaja como profesor de investigación Ikerbasque en la Universidad del País Vasco. Ha publicado siete libros y más de doscientos artículos y capítulos de libros sobre bioética, derecho sanitario y cuestiones éticas y jurídicas relacionadas con las nuevas tecnologías, como la IA. Ha participado en más de diez proyectos financiados por la UE relacionados con estos temas. De Miguel es profesor del Departamento de Derecho Público de la Universidad del País Vasco/Euskal Herriko Unibertsitatea, e imparte clases en el Doble Grado en Administración y Dirección de Empresas y Derecho.
Este artículo ha sido publicado en colaboración con Guillermo Lazcoz, investigador del Instituto de Salud Carlos III, del Centro de Investigación Biomédica en Red de Enfermedades Raras (CIBERER‐ISCIII) y del Instituto de Investigación Sanitaria de la Fundación Jiménez Díaz (IIS‐FJD).
Referencia bibliográfica
- Is more data always better? On alternative policies to mitigate bias in Artificial Intelligence health systems.
- Bioethics
- DOI: 10.1111/bioe.13398