Comisión de Deontología del COMCADIZ
La relación médico‑paciente ha sido históricamente un espacio de encuentro bilateral, construido sobre la confianza, la comunicación y el juicio clínico. Sin embargo, en los últimos años ha emergido un nuevo elemento que altera esta dinámica: la inteligencia artificial. Su presencia, tanto en herramientas clínicas como en aplicaciones de uso cotidiano, la convierte en un auténtico tercer actor dentro de la consulta. El paciente ya no llega únicamente con síntomas, sino también con interpretaciones generadas por buscadores, aplicaciones o modelos de IA. Este fenómeno modifica expectativas, condiciona decisiones y exige nuevas competencias comunicativas por parte del profesional.
La transformación del modelo asistencial ayuda a comprender este cambio. Tradicionalmente, la práctica médica se ha desarrollado en un marco reactivo, centrado en actuar cuando la enfermedad ya se ha manifestado. Posteriormente, la medicina preventiva amplió este enfoque mediante vacunaciones, cribados poblacionales y promoción de la salud. Hoy asistimos a la consolidación de un tercer modelo: la medicina predictiva, orientada a anticipar riesgos individuales antes de que aparezca la enfermedad. Es en este ámbito donde la inteligencia artificial despliega su máximo potencial. Su capacidad para analizar grandes volúmenes de datos, integrar múltiples variables y detectar patrones invisibles al ojo humano permite estimar riesgos con una precisión inédita. Como señala Eric Siegel, la predicción personalizada es uno de los elementos que está transformando la práctica clínica. La IA no solo mejora la medicina predictiva: la hace posible. Este cambio no es teórico: ya se observa en áreas clínicas concretas. Ejemplos como la estimación del riesgo de cáncer de mama mediante la combinación de marcadores genéticos, densidad mamaria, antecedentes familiares y modelos algorítmicos ilustran este salto conceptual. La pregunta clínica deja de ser únicamente “¿qué tiene este paciente?” para incorporar “¿qué podría tener?”. Esta ampliación de la mirada clínica redefine la toma de decisiones y abre la puerta a intervenciones más tempranas y personalizadas.
La presencia de la IA en la vida cotidiana ha modificado también el rol del paciente. Hoy, el paciente ya no adopta una actitud pasiva: consulta información antes de acudir, contrasta diagnósticos, solicita explicaciones basadas en datos y participa activamente en la toma de decisiones. Este empoderamiento es positivo, pero exige reforzar la comunicación clínica y gestionar expectativas generadas por herramientas que, aunque útiles, no siempre están diseñadas para uso sanitario. La relación médico‑paciente se convierte así en una relación triádica: médico, paciente e inteligencia artificial.
Pero esta transformación no está exenta de desafíos. La introducción de la IA plantea además dilemas éticos que deben abordarse desde la profesión médica. Surgen preguntas sobre la confianza: ¿a quién cree el paciente, al médico o al algoritmo?, sobre la responsabilidad: ¿quién responde ante un error asistido por IA? y sobre la transparencia: ¿cómo actuar ante modelos que no explican sus decisiones? A ello se suman los sesgos derivados de datos no representativos, el riesgo de deshumanización y la posibilidad de que la tecnología amplíe desigualdades en salud. Estos desafíos requieren marcos éticos sólidos y una participación activa de los colegios profesionales para garantizar un uso responsable.
A pesar de estos retos, la IA ya ofrece beneficios tangibles en la práctica clínica. En el ámbito diagnóstico, facilita la detección precoz y la identificación de patrones sutiles. En el pronóstico, permite estimar riesgos individuales y anticipar complicaciones. En el tratamiento, favorece decisiones personalizadas basadas en datos reales. En la gestión clínica, optimiza tiempos, prioriza tareas y reduce la carga administrativa. Y en la seguridad del paciente, contribuye a disminuir errores y generar alertas tempranas.
Sin embargo, la integración de la IA también introduce riesgos que deben ser gestionados: dependencia tecnológica, sobrecarga de alertas, variabilidad en la calidad de los modelos, infoxicación, sesgos, opacidad y responsabilidad difusa. La clave no es elegir entre tecnología o humanidad, sino integrar la tecnología sin perder la humanidad.
En este contexto, la seguridad y fiabilidad de los softwares clínicos se convierte en un requisito imprescindible. Para que un sistema de IA sea seguro debe cumplir criterios equiparables a los de un medicamento o dispositivo sanitario: validación clínica en población real, transparencia sobre los datos de entrenamiento y sus limitaciones, uso de datos representativos y libres de sesgos, mecanismos de seguridad capaces de detectar incertidumbre, rendimiento estable en distintos centros, supervisión humana obligatoria y cumplimiento estricto de la normativa sanitaria. La fiabilidad no depende solo del algoritmo, sino de su integración responsable en la práctica clínica.
La inteligencia artificial no reemplaza al médico ni al paciente; se integra en la relación clínica para potenciarla, sin desplazar la responsabilidad profesional ni la centralidad del paciente. Aporta eficiencia, precisión y capacidad predictiva, pero también introduce riesgos y dilemas éticos que exigen una respuesta profesional sólida. El médico debe seguir liderando la interacción clínica, y el paciente debe seguir siendo el centro del proceso asistencial. El futuro de la medicina no será humano o artificial: será humano con inteligencia artificial.









