Ciencia

Riesgo ético en la IA sanitaria: La OMS alerta que Europa usa IA para diagnósticos sin marcos legales de seguridad

La falta de regulación clara está abriendo una peligrosa brecha ética y legal que pone en riesgo la seguridad y la equidad de los pacientes.

Riesgos por diagnósticos de IA. - Whisk/FW
Riesgos por diagnósticos de IA. - Whisk/FW (Made with Google AI)

La Organización Mundial de la Salud (OMS) ha emitido una alerta urgente, señalando que la Inteligencia Artificial se está integrando rápidamente en los sistemas de salud de Europa (desde el diagnóstico por imágenes hasta la priorización de pacientes) sin contar con las salvaguardas éticas ni los marcos regulatorios básicos necesarios.

Lee también: ¡Escándalo literario! Dos escritoras fueron descalificadas de un premio por usar portadas generadas por IA

El problema central es la ambigüedad en la responsabilidad: si una IA comete un error fatal en un diagnóstico, no existe claridad legal sobre quién es el responsable.

Riesgos por diagnósticos de IA. - Whisk/FW
Riesgos por diagnósticos de IA. - Whisk/FW (Made with Google AI)

El diagnóstico sin responsable: La brecha legal

El informe de la oficina regional de la OMS para Europa subraya que la adopción de la IA en la medicina se está acelerando para tareas de alto riesgo, como el análisis de radiografías, la detección de cáncer en etapas tempranas o la gestión de listas de espera. Si bien estos sistemas prometen mayor eficiencia, el despliegue está superando con creces la creación de leyes y políticas.


La principal preocupación ética y legal es la falta de responsabilidad. En el sistema actual, cuando un médico comete un error, el marco legal (de la mala praxis a la negligencia) es claro. Sin embargo, cuando el error lo comete un algoritmo de deep learning, la cadena de responsabilidad se rompe: ¿Es el programador, el hospital que lo compró, o el médico que aceptó la recomendación de la IA?

Riesgos por diagnósticos de IA. - Whisk/FW
Riesgos por diagnósticos de IA. - Whisk/FW (Made with Google AI)

La OMS advierte que esta brecha regulatoria expone a los pacientes a riesgos legales y de seguridad, ya que no hay un proceso de rendición de cuentas claro para garantizar la transparencia o la reparación del daño.

El peligro oculto: Sesgos y discriminación algorítmica

Más allá de la responsabilidad, la OMS también apunta a los graves riesgos éticos relacionados con el sesgo.

La IA en la salud se entrena con vastos conjuntos de datos históricos. Si estos datos están sesgados (por ejemplo, si el data set contiene información predominantemente de un solo grupo étnico, género o clase social), la herramienta de IA puede desarrollar un sesgo algorítmico que discrimine o subdiagnostique sistemáticamente a grupos minoritarios.

Esto podría llevar a una sanidad de dos niveles, donde las personas de determinados orígenes o identidades reciben diagnósticos inexactos o tardíos simplemente porque el algoritmo no fue diseñado o probado rigurosamente para una población diversa. La falta de un marco de auditoría transparente dificulta identificar y mitigar estos sesgos antes de que causen daños reales.

Riesgos por diagnósticos de IA. - Whisk/FW
Riesgos por diagnósticos de IA. - Whisk/FW (Made with Google AI)

El llamado a la acción inmediata: Tres pilares de la OMS

Ante la rápida y descontrolada integración de la IA en los sistemas sanitarios, la OMS hace un llamado urgente a los gobiernos para que implementen regulaciones vinculantes basadas en tres pilares:

  1. Transparencia y Explicabilidad: Obligar a los desarrolladores a ser claros sobre cómo y con qué datos se entrenó la IA.
  2. Auditoría Independiente: Establecer mecanismos para que terceros evalúen los sistemas de IA en busca de sesgos y fallos antes de su uso clínico.
  3. Supervisión Humana: Garantizar que el criterio humano (el médico) sea siempre el responsable final de la decisión, y que la IA sea solo una herramienta de apoyo, no un sustituto del diagnóstico.

Solo con regulaciones sólidas se podrá garantizar que la tecnología se utilice para mejorar la salud pública sin comprometer la seguridad ni la equidad en la atención médica.

Tags

.

Lo Último