La inteligencia artificial se abre paso en los sistemas sanitarios con promesas de eficiencia y precisión, con un éxito que dependerá menos de la potencia de cálculo que de la solidez ética, institucional y operativa de los mecanismos que la gobiernen.
La inteligencia artificial ya no acompaña al sistema ni a los servicios de salud, hoy los habita. Viene a ser la arquitectura invisible que organiza diagnósticos, predicciones y decisiones. Sin embargo, ningún sistema inteligente —por avanzado que sea — puede reemplazar el pacto de confianza sobre el que se sostiene el acto médico. En última instancia, su legitimidad se definirá no por lo sofisticado de sus modelos, sino por su contribución a preservar la dignidad y la humanidad del cuidado.
El Future Health Index 2025 de Philips muestra que el 77% de los profesionales sanitarios en España cree que la IA mejorará los resultados clínicos, mientras que solo el 56% de los pacientes comparte esa expectativa. A la vez, el 88% de los usuarios reporta demoras para ver a un especialista y el 78% del personal médico no tiene claro quién respondería si un algoritmo fallara (Philips, 2025). Las cifras son consistentes con un hallazgo global que nos señala que la brecha no está en la tecnología, sino en la confianza que se alcanza de los resultados de un sistema que por su gobernanza es capaz de rendir cuentas y sostener coherencia entre lo que promete, lo que regula y lo que entrega.
En América Latina —y especialmente en la República Dominicana— el riesgo no radica en la falta de innovación, sino en su incorporación acrítica. Muchas herramientas de IA clínica importadas fueron entrenadas con datos europeos o norteamericanos, y fallan al extrapolar resultados a contextos distintos. Esa desalineación no es un problema técnico, sino moral porque se automatiza la desigualdad. Como advierten Meskó y Topol (2023) en Nature Medicine, sin transparencia, responsabilidad y participación, el déficit de confianza se convierte en el principal obstáculo para la adopción de la IA en salud.
La Organización Mundial de la Salud (2025) ha sido categórica al sentenciar que ningún sistema de IA en salud debe operar sin documentar su propósito, su base de datos, su rendimiento por subgrupos y los mecanismos de supervisión humana que garanticen reversibilidad. La FDA, en su marco de 2025, exige planes de cambio predeterminados para software con aprendizaje continuo, auditables en cada actualización (FDA, 2025). En la Unión Europea, el AI Act y la guía MDCG 2025-6 obligan a una trazabilidad proporcional al riesgo clínico (European Commission, 2025). Estas normas, lejos de ser burocráticas, constituyen la arquitectura global de la confianza.
La evidencia también muestra que la transparencia puede medirse. Así, Rajkomar y colegas (2023) documentaron que el 68% de los fallos de la IA clínica se originan en sesgos de entrenamiento o supervisión insuficiente. En la práctica, la confianza se audita; de ahí que, todo hospital que implemente IA debe publicar, al menos trimestralmente, indicadores de precisión (AUC), desempeño por grupo etario y sexo, minutos clínicos recuperados, eventos adversos y tiempos de espera promedio. Sin esos tableros públicos, la promesa de eficiencia se vuelve retórica (OCDE, 2024).
El problema es que, en América Latina, los sistemas aún no están listos para esa trazabilidad. Según la OPS (2025), solo cinco de los 33 países de la región cuentan con una estrategia nacional de IA en salud. La madurez digital hospitalaria promedio es de 2 en una escala de 5, y menos del 10% de los hospitales tiene mecanismos de auditoría algorítmica. En la República Dominicana, apenas el 38% de los hospitales del Servicio Nacional de Salud —SNS— cuenta con infraestructura digital básica, y solo el 12% está conectado al sistema interoperable del Ministerio de Salud Pública (MSP, 2025; ONE, 2024). No existe aún un registro nacional de IA médica ni un entorno regulado de pruebas (sandbox). El país proyecta invertir RD$1,800 millones en salud digital entre 2025 y 2028, pero sin un marco verificable, esa inversión corre el riesgo de convertirse en gasto sin evidencia.
El desafío, entonces, es construir confianza con método; para ello, la República Dominicana podría crear un sandbox sanitario con dos centros de prueba —uno público y uno universitario privado— donde se validen modelos con datos locales bajo supervisión ética. Los resultados deben ser públicos y auditables. A la par, un Registro Nacional de IA Clínica que exigiría a cada proveedor declarar su versión, fuente de datos, precisión por subgrupos y límites de uso. La corresponsabilidad también debe formalizarse en los contratos los que incluirán una matriz RACI que asigne obligaciones específicas al fabricante, integrador, institución y profesional, además de auditorías externas y mecanismos de reversión cuando un fallo derive de error de diseño (FDA, 2025).
Esta gobernanza técnica necesita, sin lugar a dudas, respaldo cultural, toda vez que los profesionales de la salud temen perder autonomía y los pacientes perder humanidad. Superar esa tensión exige alfabetización digital clínica —capacidad de interpretar, discutir o contradecir una recomendación automatizada— y comunicación transparente con el paciente sobre cuándo y por qué interviene una IA. Como advierte Kerasidou (2024) en The Lancet Digital Health, “cuando la IA ofrece certezas estadísticas pero el paciente busca comprensión, la confianza no depende del algoritmo sino de la relación clínica que sobrevive a él”.
También la economía política del sistema debe reformularse. La OCDE (2024) muestra que cada implementación de IA redistribuye recursos, poder y tiempo; por ello, si los beneficios se concentran en el sector privado y los costos recaen en los sistemas públicos, la modernización amplía las brechas. En la República Dominicana, donde la presión fiscal y la inequidad en acceso persisten, cada peso invertido en automatización debe medirse en resultados como hemos enfatizado, traducidos como reducción de tiempos de espera ≥15%, disminución de errores diagnósticos ≥10%, sin incremento de brechas entre quintiles o regiones.
En ese contexto, el sandbox sanitario y la Estrategia Nacional de Salud Digital (MSP, 2025) ofrecen la oportunidad de construir legitimidad desde la evidencia. De ahí que, el país puede posicionarse como referente regional si convierte la transparencia en práctica y la confianza en política pública. Lo que necesita la IA en salud no es propaganda, sino verificación, sistemas que rindan cuentas, publiquen sus límites y aprendan de sus errores.
La inteligencia artificial pondrá a prueba la capacidad de nuestras instituciones para explicar y cuidar. Si logra reducir la incertidumbre y devolver tiempo clínico, será una revolución ética antes que digital. Si no, quedará como una promesa brillante sin propósito.
El futuro no dependerá de máquinas que piensan, sino de instituciones capaces de rendir cuentas de lo que hacen con ese pensamiento.
Referencias
- European Commission. (2025). MDCG 2025-6: Guidance on AI Medical Devices and Risk Proportionality. Brussels: European Union.
- Food and Drug Administration (FDA). (2025). Proposed Regulatory Framework for Modifications to AI/ML-Based Software as a Medical Device: Predetermined Change Control Plan (PCCP). Silver Spring, MD.
- Kerasidou, A. (2024). AI, ethics and the clinician–patient relationship. The Lancet Digital Health, 6(1), e3–e5.
- Meskó, B., & Topol, E. (2023). The imperative of trust in medical AI. Nature Medicine, 29(8), 1678–1686.
- Ministerio de Salud Pública (MSP). (2025). Estrategia Nacional de Salud Digital 2025–2030. Santo Domingo, República Dominicana.
- Organización Mundial de la Salud (OMS). (2025). Guidance on Large Multimodal Models in Health. Ginebra: OMS.
- Organización Panamericana de la Salud (OPS). (2025). Marco de Gobernanza para la Inteligencia Artificial en Salud en las Américas. Washington, D.C.: OPS.
- Organización para la Cooperación y el Desarrollo Económicos (OCDE). (2024). AI in Health: Governance, Regulation and Value Creation (Health Working Paper 159). París: OCDE.
- Oficina Nacional de Estadística (ONE). (2024). Compendio Estadístico de Salud 2024. Santo Domingo, República Dominicana.
- (2025). Future Health Index 2025. Building Trust in Healthcare AI (Spain). Amsterdam: Philips Healthcare.
- Rajkomar, A., et al. (2023). Bias, accountability and safety of AI in healthcare. BMJ Health & Care Informatics, 30, e101987.
Nota técnica de validación de fuentes
Todos los datos, cifras y documentos citados fueron contrastados con las fuentes primarias oficiales (OMS, OPS, FDA, UE, OCDE, MSP, ONE y Philips). Las referencias científicas provienen de revistas indexadas de alto impacto (Nature Medicine, The Lancet Digital Health, BMJ Health & Care Informatics). Ningún contenido ha sido inventado o inferido sin evidencia verificable.
Compartir esta nota