Cada día, médicos y profesionales de la salud de todo el mundo tienen a su disposición a la inteligencia artificial (IA) para buscar apoyo en la toma de decisiones sobre el diagnóstico, pronóstico y tratamientos de posibles enfermedades. Eso incluye desde la interpretación de imágenes en radiología, dermatología y oncología hasta recomendaciones personalizadas de tratamiento.
Sin embargo, su uso no está tan extendido como cabría esperar. Si los médicos no acuden a la IA no es por un problema tecnológico: un metaanálisis de 2023 identificó que el principal obstáculo para pasar del laboratorio a la cama del enfermo es la desconfianza.
Indiscutiblemente, acceder a diagnósticos más certeros, cirugías mejor planificadas o medicamentos ajustados al paciente afecta positivamente a la calidad de vida de los individuos y a la salud pública en general. Pero para que aumente la presencia de sistemas artificiales y técnicas de aprendizaje-máquina en la práctica asistencial, deben ser confiables.
Eso implica superar algunos de los obstáculos que dificultan que los profesionales de la salud comprendan y confíen completamente en las decisiones del sistema. Entre ellos, la naturaleza de “caja negra” de muchos algoritmos de IA, los sesgos en los que pueden incurrir, la deshumanización de la relación entre profesionales de la salud y sus pacientes y la dependencia excesiva de la IA. Todo esto puede generar “puntos únicos de falla” (SPOF, por sus siglas en inglés), donde un único componente o elemento fallido puede provocar un colapso del conjunto. Y eso aumenta la fragilidad de todo el sistema de atención sanitaria.
Ni desconfianza ni confianza ciega
En este contexto se crea CONFIIA (acrónimo de Confianza y Nuevas Formas de Integración de la Inteligencia Artificial), un proyecto español integrado por profesionales de la filosofía, la psicología, la labor asistencial, la medicina y la ingeniería.
Su misión es evaluar el nivel de confianza de la IA en salud desde una doble vertiente. Por un lado, los posibles recelos en profesionales sanitarios y pacientes en el uso de aplicaciones de IA en el ámbito de la salud. Por otro, y en un sentido opuesto, el problema que generaría una confianza ciega que no tenga en cuenta la falta de integración de mecanismos de seguridad en el desarrollo de esas aplicaciones a partir de elementos como exactitud, precisión, trazabilidad y transparencia.
La confianza es multifacética. Reducirla a números sin perder matices es un equilibrio delicado y difícil. Por ello es preciso medir sin simplificar.
A esto se suma que los modelos de IA cambian en cuestiones de meses, e incluso semanas: cualquier conclusión se vuelve pronto obsoleta. De ahí la necesidad de que toda la investigación se sustente en una evaluación continua de la voz de profesionales, pacientes y desarrolladores.
¿Se puede medir algo tan escurridizo como la confianza?
Traducir un concepto multidimensional como la confianza a datos comparables no es sencillo. Requiere emplear tanto metodologías cuantitativas (encuestas validadas) como cualitativas (entrevistas en profundidad) con el personal sanitario y los pacientes, como propone CONFIIA.
Después se aplica UMAP, una técnica de análisis topológico capaz de “dibujar” clusters de confianza con multitud de variables a la vez. El mapa que dibuje mostrará grupos que confían ciegamente, quizá porque solo perciben beneficios, perfiles prudentes que piden explicaciones transparentes y personas escépticas movidas por experiencias fallidas.
El propósito de nuestro proyecto es trazar la confianza en todas sus dimensiones para, a partir de los rasgos demográficos, calcular con qué perfil de pacientes y usuarios del sistema sanitario es más probable que una persona concreta se identifique. Y, con esa información, desarrollar intervenciones personalizadas, guías de uso seguro para desarrolladores, materiales formativos para profesionales de la salud y mensajes claros para pacientes en contextos de uso de la IA.
Cada propuesta se pilotará en centros clínicos españoles entre 2027 y 2028, con un objetivo medible: incrementar al menos en un 20 % los niveles de confianza respecto del punto de partida.
Atlas de confianza en otras áreas
Nuestro proyecto aspira a generar un “atlas de confianza” reproducible, útil para reguladores y empresas tecnológicas que busquen introducir la IA responsablemente en el ámbito de la salud, pero también en otros servicios críticos (energía, transporte, justicia…).
En última instancia, CONFIIA interpela a responder preguntas que ya no podemos aplazar. ¿Quién asume la responsabilidad si un algoritmo se equivoca? ¿Cómo explicamos sus decisiones a quienes no hablan el lenguaje del algoritmo? ¿Queremos realmente introducir la voz de la ciudadanía en el desarrollo de la IA? ¿Cuánto confiamos o debemos confiar en la IA en salud?
Este artículo fue publicado originalmente en The Conversation, un sitio de noticias sin fines de lucro dedicado a compartir ideas de expertos académicos.
Lee mas:
- Piense en cómo piensa antes de preguntarle nada a la IA
- Así sería vivir con un gemelo digital al lado
- La IA puede anticipar en minutos las reacciones del mercado a las noticias financieras
Aníbal M. Astobiza recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
Belén Liedo recibe fondos proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
José Ríos Díaz recibe fondos de del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+.
Marcos Alonso recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
Mar Vallès Poch recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
NATIVIDAD GARRIDO RODRIGUEZ recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE +; del Programa de Ayuda a la formación del personal de investigación “Catalina Ruiz” del Ministerio de Economía, Conocimiento y Empleo del Gobierno de Canarias y el Fondo Social Europeo y del proyecto de I+D+i PID2022-142120NB-I00 financiado por MCIN/AEI/10.13039/501100011033 y por el “Fondo Europeo de Desarrollo Regional (FEDER), Una manera de hacer Europa”.
Patricia García Garrido recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
Pedro Chana Valero recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
Rafael Mestre recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+; y de Responsible AI UK (EP/Y009800/1; IP0033) del Engineering and Physical Sciences Research Council (EPSRC) de UK Research and Innovation (UKRI).
Ramón Ortega Lozano recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+
Txetxu Ausín recibe fondos del proyecto CONFIIA, PID2024-156166OA-I00, financiado por MICIU/AEI/10.13039/501100011033 y por el FSE+. Asimismo, es Asesor Científico del proyecto EmpoderDAT: Empoderamiento del paciente, espacio de datos de salud e inteligencia artificial como pilares del nuevo sistema sanitario (Fundación Séneca-Agencia de Ciencia y Tecnología de la Región de Murcia, referencia: 22041/PI/22).


The Conversation Español
Noticias de España
Raw Story
Women's Wear Daily Lifestyle
People Human Interest
Page Six