Un equipo de 117 expertos de cincuenta países, incluyendo representantes de instituciones como la Universidad de Oxford, el Imperial College London, la Universidad Técnica de Múnich, Stanford y Harvard, ha desarrollado el marco FUTURE-AI, un conjunto de directrices para garantizar que la inteligencia artificial aplicada a la salud sea segura, ética y fiable.
El consenso alcanzado, recientemente aceptado por BMJ, busca establecer buenas prácticas a lo largo de todo el ciclo de vida de las herramientas de IA, desde su diseño hasta su despliegue y supervisión. España ha tenido un papel destacado en este proceso, con la participación de la Universidad de Barcelona, la Fundación TIC Salut Social, el Centro de Regulación Genómica, y el Instituto de Investigación Sanitaria La Fe.
Garantizar la confianza en la IA aplicada a la salud
A pesar de los avances en IA, la confianza en estas tecnologías sigue siendo un desafío debido a preocupaciones sobre seguridad y ética. Con el objetivo de abordar estos riesgos, el marco FUTURE-AI establece seis principios fundamentales que deben regir el desarrollo de la IA sanitaria:
- Equidad: las herramientas de IA deben funcionar de manera justa para todas las personas, sin importar su edad, género o procedencia.
- Universalidad: los modelos de IA deben poder adaptarse a distintos sistemas de salud y contextos globales.
- Trazabilidad: la inteligencia artificial debe ser monitorizada para garantizar su correcto funcionamiento y permitir su corrección si surgen problemas.
- Usabilidad: las herramientas deben ser intuitivas y fáciles de integrar en la rutina de los profesionales sanitarios.
- Robustez: los modelos deben ser entrenados con datos diversos que reflejen variaciones del mundo real y, para mantener su precisión, deben ser evaluados y optimizados regularmente.
- Explicabilidad: la IA debe ofrecer explicaciones claras sobre sus decisiones, permitiendo que tanto médicos como pacientes comprendan su funcionamiento.
España, un actor clave en la definición de estándares de la IA sanitaria
Desde una perspectiva local, España ha jugado un papel relevante en el desarrollo de estas directrices. La Universidad de Barcelona ha liderado la iniciativa a través del profesor Karim Lekadir, investigador del ICREA, y director del grupo BCN-AIM. Además, han contribuido instituciones como la Fundación TIC Salut Social, que representa al Departamento de Salud de Cataluña y su Programa de IA en Salud, así como el Centro de Regulación Genómica y el Hospital La Fe.
El documento de consenso publicado establece un código de buenas prácticas que proporciona a investigadores, empresas tecnológicas y organismos reguladores un marco común para la implementación de IA sanitaria con garantías de seguridad y fiabilidad.
Con este marco, los expertos esperan facilitar la adopción de herramientas basadas en IA en el ámbito médico, asegurando que estas tecnologías mejoren la atención sanitaria sin comprometer la seguridad ni la equidad en su aplicación.