La Organización Mundial de la Salud (OMS) ha emitido una alerta urgente, señalando que la Inteligencia Artificial se está integrando rápidamente en los sistemas de salud de Europa (desde el diagnóstico por imágenes hasta la priorización de pacientes) sin contar con las salvaguardas éticas ni los marcos regulatorios básicos necesarios.
Lee también: ¡Escándalo literario! Dos escritoras fueron descalificadas de un premio por usar portadas generadas por IA
El problema central es la ambigüedad en la responsabilidad: si una IA comete un error fatal en un diagnóstico, no existe claridad legal sobre quién es el responsable.

El diagnóstico sin responsable: La brecha legal
El informe de la oficina regional de la OMS para Europa subraya que la adopción de la IA en la medicina se está acelerando para tareas de alto riesgo, como el análisis de radiografías, la detección de cáncer en etapas tempranas o la gestión de listas de espera. Si bien estos sistemas prometen mayor eficiencia, el despliegue está superando con creces la creación de leyes y políticas.
La principal preocupación ética y legal es la falta de responsabilidad. En el sistema actual, cuando un médico comete un error, el marco legal (de la mala praxis a la negligencia) es claro. Sin embargo, cuando el error lo comete un algoritmo de deep learning, la cadena de responsabilidad se rompe: ¿Es el programador, el hospital que lo compró, o el médico que aceptó la recomendación de la IA?

La OMS advierte que esta brecha regulatoria expone a los pacientes a riesgos legales y de seguridad, ya que no hay un proceso de rendición de cuentas claro para garantizar la transparencia o la reparación del daño.
El peligro oculto: Sesgos y discriminación algorítmica
Más allá de la responsabilidad, la OMS también apunta a los graves riesgos éticos relacionados con el sesgo.
La IA en la salud se entrena con vastos conjuntos de datos históricos. Si estos datos están sesgados (por ejemplo, si el data set contiene información predominantemente de un solo grupo étnico, género o clase social), la herramienta de IA puede desarrollar un sesgo algorítmico que discrimine o subdiagnostique sistemáticamente a grupos minoritarios.
Esto podría llevar a una sanidad de dos niveles, donde las personas de determinados orígenes o identidades reciben diagnósticos inexactos o tardíos simplemente porque el algoritmo no fue diseñado o probado rigurosamente para una población diversa. La falta de un marco de auditoría transparente dificulta identificar y mitigar estos sesgos antes de que causen daños reales.

El llamado a la acción inmediata: Tres pilares de la OMS
Ante la rápida y descontrolada integración de la IA en los sistemas sanitarios, la OMS hace un llamado urgente a los gobiernos para que implementen regulaciones vinculantes basadas en tres pilares:
- Transparencia y Explicabilidad: Obligar a los desarrolladores a ser claros sobre cómo y con qué datos se entrenó la IA.
- Auditoría Independiente: Establecer mecanismos para que terceros evalúen los sistemas de IA en busca de sesgos y fallos antes de su uso clínico.
- Supervisión Humana: Garantizar que el criterio humano (el médico) sea siempre el responsable final de la decisión, y que la IA sea solo una herramienta de apoyo, no un sustituto del diagnóstico.
Solo con regulaciones sólidas se podrá garantizar que la tecnología se utilice para mejorar la salud pública sin comprometer la seguridad ni la equidad en la atención médica.

