
Siguiendo el ejemplo del sector privado de seguros, la administración Trump lanzará el próximo año un programa piloto para evaluar cuánto dinero podría ahorrar el gobierno federal al negar atención médica a pacientes de Medicare mediante un algoritmo de inteligencia artificial (IA).
El programa está diseñado para eliminar servicios considerados innecesarios o de “bajo valor” y representa una expansión federal del proceso llamado autorización previa, una práctica impopular que exige a los pacientes o a los médicos la aprobación del seguro antes de realizar ciertos procedimientos y exámenes médicos, o de escribir recetas.
Afectará a beneficiarios de Medicare, así como a los médicos y hospitales que los atienden, en Arizona, Ohio, Oklahoma, Nueva Jersey, Texas y Washington, a partir del 1 de enero y hasta 2031.
La medida ha generado preocupación entre políticos y expertos en políticas públicas. La versión tradicional de Medicare —que cubre a personas de 65 años en adelante y a algunas personas con discapacidades— ha evitado en general el uso de la autorización previa.
Sin embargo, las aseguradoras privadas la usan ampliamente, en especial en el mercado de Medicare Advantage.
El momento del anuncio también sorprendió: el programa piloto se anunció a finales de junio , pocos días después de que la administración Trump presentara una iniciativa voluntaria para que las aseguradoras privadas redujeran el uso de autorizaciones previas, práctica que, según Mehmet Oz, administrador de los Centros de Servicios de Medicare y Medicaid (CMS, en inglés), provoca “retrasos significativos” en la atención.
“Esto debilita la confianza del público en el sistema de salud”, dijo Oz a los medios. “Es algo que no podemos tolerar en esta administración”.
Pero algunos críticos, como Vinay Rathi, médico e investigador de políticas públicas en la Universidad Estatal de Ohio, acusan al gobierno de Trump de enviar mensajes contradictorios.
Por un lado, dijo Rathi, el gobierno quiere imitar estrategias del sector privado para reducir costos. “Por el otro, los regaña públicamente”.
“Es hipócrita decir una cosa y luego lo contrario”, dijo Suzan DelBene, legisladora demócrata de Washington. “Es muy preocupante”.
Pacientes, médicos y otros legisladores también han criticado lo que consideran tácticas para retrasar o negar atención médica, lo que puede causar daños irreparables o incluso la muerte .
“Las compañías de seguros tienen como mantra recibir el dinero de los pacientes y luego hacer todo lo posible para no entregárselo a quienes brindan la atención”, señaló Greg Murphy, legislador republicano de Carolina del Norte y urólogo. “Eso sucede en todas las juntas directivas de las aseguradoras”.
Las aseguradoras han defendido durante años que la autorización previa reduce el fraude, el gasto innecesario y posibles daños. La indignación pública por la negación de coberturas dominó los titulares en diciembre, cuando el asesinato del CEO de UnitedHealthcare hizo que muchos consideraran al presunto asesino como un héroe popular.
Y el rechazo público es generalizado: casi tres de cada cuatro personas encuestadas en julio por KFF dijeron que la autorización previa era un problema “grave”.
Por su parte, Oz afirmó en su conferencia de prensa de junio que la “violencia en las calles” llevó a la administración Trump a abordar la reforma de las autorizaciones previas en el sector privado.
Aún así, el gobierno está ampliando su uso en Medicare. Un vocero de los CMS, Alexx Pons, dijo que ambas iniciativas “tienen el mismo objetivo: proteger a los pacientes y a los fondos de Medicare”.
Preguntas sin respuesta
El programa piloto , llamado WISeR —siglas de Reducción de Servicios Inadecuados y Despilfarro— evaluará el uso de un algoritmo de IA para tomar decisiones de autorización previa en algunos servicios de Medicare, como sustitutos de piel y tejidos, implantes de estimuladores eléctricos de nervios y artroscopías de rodilla.
El gobierno federal sostiene que estos procedimientos son particularmente vulnerables al “fraude, despilfarro y abuso”, y que la autorización previa podría contener su uso excesivo.
Podrían agregarse más procedimientos a la lista. Sin embargo, los servicios de hospitalización, atención de emergencia o aquellos cuya demora represente un riesgo considerable para el paciente no estarán sujetos al modelo de IA, según el anuncio federal.
Aunque el uso de inteligencia artificial en seguros de salud no es nuevo, Medicare ha tardado en adoptar herramientas del sector privado. Hasta ahora, solo ha utilizado la autorización previa de forma limitada, a través de contratistas que no tienen incentivos para negar servicios. Pero expertos que han estudiado el plan creen que el plan piloto federal podría cambiar esa dinámica.
Pons afirmó a KFF Health News que ninguna solicitud de Medicare será rechazada sin antes ser revisada por “un profesional clínico calificado” y que los proveedores “tienen prohibido recibir pagos vinculados a tasas de negación”.
Sin embargo, el anuncio federal señala que los proveedores recibirán “un porcentaje de los ahorros generados por evitar atención innecesaria o inadecuada como resultado de sus revisiones”.
“Los acuerdos de ahorros compartidos implican que los proveedores se beneficien financieramente cuando se brinda menos atención médica”, y crea una estructura que puede incentivar la negación de atención médicamente necesaria, dijo Jennifer Brackeen, directora de asuntos gubernamentales de la Asociación de Hospitales del Estado de Washington.
Pero según médicos y expertos en políticas de salud, ese no es el único problema.
Rathi señaló que el plan “no está completamente desarrollado” y se basa en criterios “ambiguos y subjetivos”. El modelo, explicó, depende en última instancia de que los contratistas evalúen sus propios resultados, lo cual podría comprometer la validez de las conclusiones.
“No estoy seguro de que sepan, siquiera, cómo van a determinar si esto está ayudando o perjudicando a los pacientes”, dijo.
Pons aseguró que el uso de IA en este piloto estará “sujeto a supervisión estricta para garantizar transparencia, rendición de cuentas y cumplimiento con las normas de Medicare y la protección de los pacientes”.
“Los CMS siguen comprometidos con garantizar que las herramientas automatizadas apoyen —y no reemplacen— decisiones clínicas sólidas”, dijo.
Los expertos coinciden en que, en teoría, la inteligencia artificial podría agilizar un proceso que se caracteriza por retrasos y negaciones que afectan la salud de los pacientes. Las aseguradoras argumentan que la IA elimina errores y sesgos humanos, y reduce costos al sistema de salud. También insisten en que son personas, no algoritmos, quienes revisan las decisiones finales sobre cobertura.
Pero algunas investigaciones cuestionan que eso ocurra realmente.
“Creo que también hay ambigüedad sobre qué significa exactamente ‘revisión humana significativa’”, señaló Amy Killelea, profesora investigadora en el Centro de Reformas del Seguro de Salud de la Universidad de Georgetown.
Un informe de 2023 publicado por ProPublica reveló que, durante un período de dos meses, médicos de Cigna dedicaron en promedio 1,2 segundos para revisar cada solicitud de pago.
Justine Sessions, vocera de Cigna, dijo a KFF Health News que la compañía no utiliza inteligencia artificial para negar atención o reclamos. La investigación de ProPublica, explicó, se refería a “un proceso simple, impulsado por software, que ayudó a acelerar pagos a médicos para pruebas y tratamientos comunes y de bajo costo. No está impulsado por IA” y “no se utilizó para autorizaciones previas”, agregó Sessions.
Sin embargo, demandas legales colectivas presentadas contra grandes aseguradoras alegan que sus modelos de IA fallan al considerar las necesidades individuales de los pacientes y contradicen las recomendaciones médicas, obligando a algunas personas a asumir el costo de su atención.
Una encuesta realizada en febrero por la American Medical Association reveló que el 61% de los médicos cree que la IA está “aumentando las negaciones de autorización previa, agravando daños evitables a los pacientes y generando un despilfarro innecesario ahora y en el futuro”.
Chris Bond, vocero de AHIP, el grupo que representa a las aseguradoras, dijo a KFF Health News que la organización está “totalmente enfocada” en cumplir los compromisos asumidos con el gobierno. Entre ellos, reducir el alcance de la autorización previa y garantizar que las comunicaciones con los pacientes sobre negaciones y apelaciones sean fáciles de entender.
“Es un programa piloto”
El programa piloto de Medicare pone en evidencia las preocupaciones sobre la autorización previa, y agrega nuevas inquietudes.
Si bien las aseguradoras privadas han sido poco transparentes sobre cómo utilizan la IA y hasta qué punto aplican la autorización previa, investigadoras en políticas públicas creen que estos algoritmos suelen programarse para negar automáticamente la atención costosa.
“Cuanto más caro es el servicio, más probable es que se niegue”, afirmó Jennifer Oliva, profesora de la Facultad de Derecho Maurer de la Universidad de Indiana-Bloomington, experta en regulación de IA y cobertura médica.
En un artículo reciente para Indiana Law Journal , Oliva explicó que cuando un paciente tiene una expectativa de vida limitada, las aseguradoras tienden a apoyarse en el algoritmo. A medida que pasa el tiempo y el paciente o su médico apelan la negación, aumentan las probabilidades de que esa persona fallezca antes de que el seguro cubra el tratamiento. Cuanto más largo es el proceso de apelación, menos probable es que la aseguradora tenga que pagar, dijo.
“Lo primero que hacen es dificultar al máximo el acceso a servicios de alto costo”, aseguró.
Dado el crecimiento previsto del uso de IA en seguros de salud, los algoritmos de las aseguradoras representan “un punto ciego en la regulación” que exige mayor supervisión, dijo Carmel Shachar, directora del Centro de Innovación en Derecho y Políticas de Salud de la Facultad de Derecho de Harvard.
Según Shachar, el programa WISeR es “un paso interesante” para asegurarse de que los fondos de Medicare se utilicen en atención de calidad; pero la falta de detalles hace difícil saber si realmente funcionará.
Los políticos también se hacen esas preguntas.
“¿Cómo se va a probar este sistema? ¿Cómo van a asegurarse de que funciona y no está negando atención o generando más rechazos?”, preguntó DelBene, quien firmó una carta en agosto junto a otros demócratas exigiendo respuestas sobre el programa de IA.
Pero no solo los demócratas están preocupados.
Murphy, copresidente del Caucus de Médicos Republicanos de la Cámara de Representantes, reconoció que muchos médicos temen que el programa piloto WISeR interfiera con la práctica médica si el algoritmo niega tratamientos recomendados por profesionales.
Mientras tanto, miembros de ambos partidos en la Cámara de Representantes apoyaron recientemente una propuesta de Lois Frankel , demócrata de Florida, para bloquear el financiamiento del piloto en el presupuesto del Departamento de Salud y Servicios Humanos para el año fiscal 2026.
La IA llegó para quedarse en el sistema de salud, dijo Murphy, pero aún está por verse si el piloto WISeR ahorrará dinero a Medicare o empeorará los problemas ya existentes por la autorización previa.
“Es un programa piloto, y estoy dispuesto a ver qué ocurre con esto”, agregó Murphy, “pero siempre, siempre me inclinaré por confiar en que los médicos saben lo que es mejor para sus pacientes”.