La IA que detecta el cáncer y los expertos humanos pueden ser engañados por ataques de manipulación de imágenes
Imágenes de mamografías que muestran casos reales con cáncer positivo (arriba a la izquierda) y cáncer negativo (abajo a la izquierda), con tejido canceroso indicado por una mancha blanca. Un programa de ‘red antagónica generativa’ eliminó regiones cancerosas de la imagen positiva de cáncer, creando una imagen negativa falsa (arriba a la derecha) e insertó regiones cancerosas en la imagen negativa de cáncer, creando un positivo falso (abajo a la derecha). Crédito: Q. Zhou et al., Nat. común 2021
Los modelos de inteligencia artificial (IA) que evalúan imágenes médicas tienen el potencial de acelerar y mejorar la precisión de los diagnósticos de cáncer, pero también pueden ser vulnerables a los ataques cibernéticos. En un nuevo estudio, investigadores de la Universidad de Pittsburgh simularon un ataque que falsificó imágenes de mamografías, engañando tanto a un modelo de diagnóstico de cáncer de mama de IA como a expertos radiólogos en imágenes de mama humana.
El estudio, publicado hoy en Nature Communications, llama la atención sobre un posible problema de seguridad para la IA médica conocido como «ataques adversarios», que buscan alterar imágenes u otras entradas para hacer que los modelos lleguen a conclusiones incorrectas.
«Lo que queremos mostrar con este estudio es que este tipo de ataque es posible, y podría llevar a los modelos de IA a hacer un diagnóstico erróneo, lo cual es un gran problema de seguridad del paciente», dijo el autor principal Shandong Wu, Ph.D., profesor asociado de radiología, informática biomédica y bioingeniería en Pitt. «Al comprender cómo se comportan los modelos de IA bajo ataques adversarios en contextos médicos, podemos comenzar a pensar en formas de hacer que estos modelos sean más seguros y robustos».
La tecnología de reconocimiento de imágenes basada en IA para la detección del cáncer ha avanzado rápidamente en últimos años, y varios modelos de cáncer de mama cuentan con la aprobación de la Administración de Drogas y Alimentos de los Estados Unidos (FDA). Según Wu, estas herramientas pueden analizar rápidamente imágenes de mamografías e identificar aquellas que tienen más probabilidades de ser cancerosas, lo que ayuda a los radiólogos a ser más eficientes y precisos.
Pero estas tecnologías también están en riesgo de amenazas cibernéticas, como ataques de adversarios. Las posibles motivaciones de tales ataques incluyen el fraude de seguros por parte de proveedores de atención médica que buscan aumentar los ingresos o empresas que intentan ajustar los resultados de los ensayos clínicos a su favor. Los ataques adversarios a imágenes médicas van desde pequeñas manipulaciones que cambian la decisión de la IA, pero que son imperceptibles para el ojo humano, hasta versiones más sofisticadas que se dirigen a contenidos sensibles de la imagen, como regiones cancerosas, lo que las hace más propensas a engañar a un humano.
Para entender cómo se comportaría la IA bajo este tipo más complejo de ataque adversario, Wu y su equipo usaron imágenes de mamografías para desarrollar un modelo para detectar el cáncer de mama. Primero, los investigadores entrenaron un algoritmo de aprendizaje profundo para distinguir los casos cancerosos y benignos con más del 80 % de precisión. A continuación, desarrollaron la llamada «red adversarial generativa» (GAN), un programa informático que genera imágenes falsas al insertar o eliminar regiones cancerosas de imágenes negativas o positivas, respectivamente, y luego probaron cómo el modelo clasificó estas imágenes adversarias.
De 44 imágenes positivas que la GAN hizo parecer negativas, 42 fueron clasificadas como negativas por el modelo, y de 319 imágenes negativas hechas para parecer positivas, 209 fueron clasificadas como positivas. En total, el modelo fue engañado por el 69,1 % de las imágenes falsas.
En la segunda parte del experimento, los investigadores pidieron a cinco radiólogos humanos que distinguieran si las imágenes de la mamografía eran reales o falsas. Los expertos identificaron con precisión la autenticidad de las imágenes con una precisión de entre el 29 % y el 71 %, según el individuo.
«Ciertas imágenes falsas que engañan a la IA pueden ser fácilmente detectadas por los radiólogos. Sin embargo, muchas de las Las imágenes de este estudio no solo engañaron al modelo, sino que también engañaron a los lectores humanos experimentados», dijo Wu, quien también es director del Laboratorio de Computación Inteligente para Imágenes Clínicas y del Centro de Innovación de IA en Imágenes Médicas de Pittsburgh. «Dichos ataques podrían ser potencialmente muy dañinos para los pacientes si conducen a un diagnóstico de cáncer incorrecto».
Según Wu, el siguiente paso es desarrollar formas de hacer que los modelos de IA sean más resistentes a los ataques de los adversarios.
«Una dirección que estamos explorando es el ‘entrenamiento adversario’ para el modelo de IA», explicó. «Esto implica pregenerar imágenes antagónicas y enseñarle al modelo que estas imágenes se manipulan».
Con la perspectiva de que la IA se introduzca en la infraestructura médica, Wu dijo que la educación en seguridad cibernética también es importante para garantizar que la tecnología hospitalaria Los sistemas y el personal son conscientes de las amenazas potenciales y tienen soluciones técnicas para proteger los datos de los pacientes y bloquear el malware.
«Esperamos que esta investigación haga que la gente piense en la seguridad del modelo de IA médica y en lo que podemos hacer para defendernos de posibles ataques, asegurando que los sistemas de IA funcionen de manera segura para mejorar la atención al paciente», agregó.
Otros autores que contribuyeron al estudio fueron Qianwei Zhou, Ph.D., de Pitt y la Universidad Tecnológica de Zhejiang en China; Margarita Zuley, MD, Bronwyn Nair, MD, Adrienne Vargo, MD, Suzanne Ghannam, MD y Dooman Arefan, Ph.D., todos de Pitt y UPMC; Yuan Guo, MD, de Pitt y Guangzhou First People’s Hospital en China; Lu Yang, MD, de Pitt and Chongqing University Cancer Hospital en China.
Explore más
FoolChecker: una plataforma para comprobar la solidez de una imagen frente a ataques de adversarios. Más información: Un estudio de máquina y lector humano sobre la seguridad del modelo de diagnóstico de IA bajo ataques de imágenes de adversarios. Comunicaciones de la naturaleza (2021). DOI: 10.1038/s41467-021-27577-x Información de la revista: Nature Communications
Proporcionado por la Universidad de Pittsburgh Cita: La IA para detectar el cáncer y los expertos humanos pueden ser engañado por ataques de manipulación de imágenes (2021, 14 de diciembre) recuperado el 29 de agosto de 2022 de https://medicalxpress.com/news/2021-12-cancer-spotting-ai-human-experts-image-tampering.html Este documento está sujeto a los derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.