HomeNoticias ITVeneno digital: Unas pocas muestras falsas pueden manipular diagnósticos médicos hechos por...

Veneno digital: Unas pocas muestras falsas pueden manipular diagnósticos médicos hechos por IA

Investigadores han descubierto que los sistemas de inteligencia artificial utilizados en medicina pueden ser manipulados con muy pocos datos deliberadamente falsos. Basta con introducir entre 100 y 500 ejemplos manipulados dentro de una gran base de datos para hacer que una IA de diagnóstico falle en situaciones específicas, incluso cuando en general funciona bien.

Hecho por: Daniel Ruiz

Cómo funciona este tipo de ataque:
Aunque millones de imágenes o datos legítimos se usen para entrenar a una IA médica, una cantidad muy pequeña de datos maliciosos —menos del 0,001 % del total— puede “enseñar” al sistema a equivocarse de forma sistemática. Estos datos suelen repetirse varias veces en los procesos de aprendizaje, lo que exagera su influencia en el modelo final.

Qué sucede después del ataque:
Como resultado, la IA no “se rompe” completamente: sigue funcionando normalmente para la mayoría de los pacientes y casos. Sin embargo, en los casos en que se ha diseñado el sabotaje, la IA puede fallar de forma consistente y dirigida. Esto significa que los errores no son aleatorios, sino deliberados.

El problema de la privacidad:
Las leyes que protegen la privacidad de los pacientes —por ejemplo, las que impiden compartir libremente datos de salud entre hospitales— también dificultan la detección de estos ataques. Para identificar un “veneno digital”, muchas veces sería necesario comparar datos entre diferentes centros médicos, algo que la regulación de datos limita.

Posibles soluciones:
Los investigadores sugieren que no basta con confiar en un solo modelo de IA. Proponen usar varios sistemas distintos al mismo tiempo (una especie de “junta médica digital”), de modo que si uno está comprometido, otros puedan señalar discrepancias y activar una revisión humana.

La noticia alerta de una vulnerabilidad significativa en los sistemas de IA en salud. Aunque estos modelos pueden mejorar la atención médica, también pueden ser manipulados con facilidad si no se implementan controles adecuados y revisiones humanas rigurosas.

RELATED ARTICLES

Most Popular

Recent Comments