{"id":4530,"date":"2022-08-30T00:56:02","date_gmt":"2022-08-30T05:56:02","guid":{"rendered":"https:\/\/www.biblia.work\/articulos-salud\/la-ia-que-detecta-el-cancer-y-los-expertos-humanos-pueden-ser-enganados-por-ataques-de-manipulacion-de-imagenes\/"},"modified":"2022-08-30T00:56:02","modified_gmt":"2022-08-30T05:56:02","slug":"la-ia-que-detecta-el-cancer-y-los-expertos-humanos-pueden-ser-enganados-por-ataques-de-manipulacion-de-imagenes","status":"publish","type":"post","link":"https:\/\/www.biblia.work\/articulos-salud\/la-ia-que-detecta-el-cancer-y-los-expertos-humanos-pueden-ser-enganados-por-ataques-de-manipulacion-de-imagenes\/","title":{"rendered":"La IA que detecta el c\u00e1ncer y los expertos humanos pueden ser enga\u00f1ados por ataques de manipulaci\u00f3n de im\u00e1genes"},"content":{"rendered":"<p>Im\u00e1genes de mamograf\u00edas que muestran casos reales con c\u00e1ncer positivo (arriba a la izquierda) y c\u00e1ncer negativo (abajo a la izquierda), con tejido canceroso indicado por una mancha blanca. Un programa de &#8216;red antag\u00f3nica generativa&#8217; elimin\u00f3 regiones cancerosas de la imagen positiva de c\u00e1ncer, creando una imagen negativa falsa (arriba a la derecha) e insert\u00f3 regiones cancerosas en la imagen negativa de c\u00e1ncer, creando un positivo falso (abajo a la derecha). Cr\u00e9dito: Q. Zhou et al., Nat. com\u00fan 2021 <\/p>\n<p>Los modelos de inteligencia artificial (IA) que eval\u00faan im\u00e1genes m\u00e9dicas tienen el potencial de acelerar y mejorar la precisi\u00f3n de los diagn\u00f3sticos de c\u00e1ncer, pero tambi\u00e9n pueden ser vulnerables a los ataques cibern\u00e9ticos. En un nuevo estudio, investigadores de la Universidad de Pittsburgh simularon un ataque que falsific\u00f3 im\u00e1genes de mamograf\u00edas, enga\u00f1ando tanto a un modelo de diagn\u00f3stico de c\u00e1ncer de mama de IA como a expertos radi\u00f3logos en im\u00e1genes de mama humana. <\/p>\n<p>El estudio, publicado hoy en Nature Communications, llama la atenci\u00f3n sobre un posible problema de seguridad para la IA m\u00e9dica conocido como \u00abataques adversarios\u00bb, que buscan alterar im\u00e1genes u otras entradas para hacer que los modelos lleguen a conclusiones incorrectas.<\/p>\n<p>\u00abLo que queremos mostrar con este estudio es que este tipo de ataque es posible, y podr\u00eda llevar a los modelos de IA a hacer un diagn\u00f3stico err\u00f3neo, lo cual es un gran problema de seguridad del paciente\u00bb, dijo el autor principal Shandong Wu, Ph.D., profesor asociado de radiolog\u00eda, inform\u00e1tica biom\u00e9dica y bioingenier\u00eda en Pitt. \u00abAl comprender c\u00f3mo se comportan los modelos de IA bajo ataques adversarios en contextos m\u00e9dicos, podemos comenzar a pensar en formas de hacer que estos modelos sean m\u00e1s seguros y robustos\u00bb.<\/p>\n<p>La tecnolog\u00eda de reconocimiento de im\u00e1genes basada en IA para la detecci\u00f3n del c\u00e1ncer ha avanzado r\u00e1pidamente en \u00faltimos a\u00f1os, y varios modelos de c\u00e1ncer de mama cuentan con la aprobaci\u00f3n de la Administraci\u00f3n de Drogas y Alimentos de los Estados Unidos (FDA). Seg\u00fan Wu, estas herramientas pueden analizar r\u00e1pidamente im\u00e1genes de mamograf\u00edas e identificar aquellas que tienen m\u00e1s probabilidades de ser cancerosas, lo que ayuda a los radi\u00f3logos a ser m\u00e1s eficientes y precisos.<\/p>\n<p>Pero estas tecnolog\u00edas tambi\u00e9n est\u00e1n en riesgo de amenazas cibern\u00e9ticas, como ataques de adversarios. Las posibles motivaciones de tales ataques incluyen el fraude de seguros por parte de proveedores de atenci\u00f3n m\u00e9dica que buscan aumentar los ingresos o empresas que intentan ajustar los resultados de los ensayos cl\u00ednicos a su favor. Los ataques adversarios a im\u00e1genes m\u00e9dicas van desde peque\u00f1as manipulaciones que cambian la decisi\u00f3n de la IA, pero que son imperceptibles para el ojo humano, hasta versiones m\u00e1s sofisticadas que se dirigen a contenidos sensibles de la imagen, como regiones cancerosas, lo que las hace m\u00e1s propensas a enga\u00f1ar a un humano.<\/p>\n<p>Para entender c\u00f3mo se comportar\u00eda la IA bajo este tipo m\u00e1s complejo de ataque adversario, Wu y su equipo usaron im\u00e1genes de mamograf\u00edas para desarrollar un modelo para detectar el c\u00e1ncer de mama. Primero, los investigadores entrenaron un algoritmo de aprendizaje profundo para distinguir los casos cancerosos y benignos con m\u00e1s del 80 % de precisi\u00f3n. A continuaci\u00f3n, desarrollaron la llamada \u00abred adversarial generativa\u00bb (GAN), un programa inform\u00e1tico que genera im\u00e1genes falsas al insertar o eliminar regiones cancerosas de im\u00e1genes negativas o positivas, respectivamente, y luego probaron c\u00f3mo el modelo clasific\u00f3 estas im\u00e1genes adversarias.<\/p>\n<p>De 44 im\u00e1genes positivas que la GAN hizo parecer negativas, 42 fueron clasificadas como negativas por el modelo, y de 319 im\u00e1genes negativas hechas para parecer positivas, 209 fueron clasificadas como positivas. En total, el modelo fue enga\u00f1ado por el 69,1 % de las im\u00e1genes falsas.<\/p>\n<p>En la segunda parte del experimento, los investigadores pidieron a cinco radi\u00f3logos humanos que distinguieran si las im\u00e1genes de la mamograf\u00eda eran reales o falsas. Los expertos identificaron con precisi\u00f3n la autenticidad de las im\u00e1genes con una precisi\u00f3n de entre el 29 % y el 71 %, seg\u00fan el individuo.<\/p>\n<p>\u00abCiertas im\u00e1genes falsas que enga\u00f1an a la IA pueden ser f\u00e1cilmente detectadas por los radi\u00f3logos. Sin embargo, muchas de las Las im\u00e1genes de este estudio no solo enga\u00f1aron al modelo, sino que tambi\u00e9n enga\u00f1aron a los lectores humanos experimentados\u00bb, dijo Wu, quien tambi\u00e9n es director del Laboratorio de Computaci\u00f3n Inteligente para Im\u00e1genes Cl\u00ednicas y del Centro de Innovaci\u00f3n de IA en Im\u00e1genes M\u00e9dicas de Pittsburgh. \u00abDichos ataques podr\u00edan ser potencialmente muy da\u00f1inos para los pacientes si conducen a un diagn\u00f3stico de c\u00e1ncer incorrecto\u00bb.<\/p>\n<p>Seg\u00fan Wu, el siguiente paso es desarrollar formas de hacer que los modelos de IA sean m\u00e1s resistentes a los ataques de los adversarios.<\/p>\n<p>\u00abUna direcci\u00f3n que estamos explorando es el &#8216;entrenamiento adversario&#8217; para el modelo de IA\u00bb, explic\u00f3. \u00abEsto implica pregenerar im\u00e1genes antag\u00f3nicas y ense\u00f1arle al modelo que estas im\u00e1genes se manipulan\u00bb.<\/p>\n<p>Con la perspectiva de que la IA se introduzca en la infraestructura m\u00e9dica, Wu dijo que la educaci\u00f3n en seguridad cibern\u00e9tica tambi\u00e9n es importante para garantizar que la tecnolog\u00eda hospitalaria Los sistemas y el personal son conscientes de las amenazas potenciales y tienen soluciones t\u00e9cnicas para proteger los datos de los pacientes y bloquear el malware.<\/p>\n<p>\u00abEsperamos que esta investigaci\u00f3n haga que la gente piense en la seguridad del modelo de IA m\u00e9dica y en lo que podemos hacer para defendernos de posibles ataques, asegurando que los sistemas de IA funcionen de manera segura para mejorar la atenci\u00f3n al paciente\u00bb, agreg\u00f3.<\/p>\n<p>Otros autores que contribuyeron al estudio fueron Qianwei Zhou, Ph.D., de Pitt y la Universidad Tecnol\u00f3gica de Zhejiang en China; Margarita Zuley, MD, Bronwyn Nair, MD, Adrienne Vargo, MD, Suzanne Ghannam, MD y Dooman Arefan, Ph.D., todos de Pitt y UPMC; Yuan Guo, MD, de Pitt y Guangzhou First People&#8217;s Hospital en China; Lu Yang, MD, de Pitt and Chongqing University Cancer Hospital en China. <\/p>\n<p>Explore m\u00e1s<\/p>\n<p> FoolChecker: una plataforma para comprobar la solidez de una imagen frente a ataques de adversarios. <strong>M\u00e1s informaci\u00f3n:<\/strong> Un estudio de m\u00e1quina y lector humano sobre la seguridad del modelo de diagn\u00f3stico de IA bajo ataques de im\u00e1genes de adversarios. Comunicaciones de la naturaleza (2021). DOI: 10.1038\/s41467-021-27577-x <strong>Informaci\u00f3n de la revista:<\/strong> Nature Communications <\/p>\n<p> Proporcionado por la Universidad de Pittsburgh <strong>Cita<\/strong>: La IA para detectar el c\u00e1ncer y los expertos humanos pueden ser enga\u00f1ado por ataques de manipulaci\u00f3n de im\u00e1genes (2021, 14 de diciembre) recuperado el 29 de agosto de 2022 de https:\/\/medicalxpress.com\/news\/2021-12-cancer-spotting-ai-human-experts-image-tampering.html Este documento est\u00e1 sujeto a los derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigaci\u00f3n privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona \u00fanicamente con fines informativos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Im\u00e1genes de mamograf\u00edas que muestran casos reales con c\u00e1ncer positivo (arriba a la izquierda) y c\u00e1ncer negativo (abajo a la izquierda), con tejido canceroso indicado por una mancha blanca. Un programa de &#8216;red antag\u00f3nica generativa&#8217; elimin\u00f3 regiones cancerosas de la imagen positiva de c\u00e1ncer, creando una imagen negativa falsa (arriba a la derecha) e insert\u00f3 &hellip; <a href=\"https:\/\/www.biblia.work\/articulos-salud\/la-ia-que-detecta-el-cancer-y-los-expertos-humanos-pueden-ser-enganados-por-ataques-de-manipulacion-de-imagenes\/\" class=\"more-link\">Continuar leyendo<span class=\"screen-reader-text\"> \u00abLa IA que detecta el c\u00e1ncer y los expertos humanos pueden ser enga\u00f1ados por ataques de manipulaci\u00f3n de im\u00e1genes\u00bb<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-4530","post","type-post","status-publish","format-standard","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts\/4530","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/comments?post=4530"}],"version-history":[{"count":0,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts\/4530\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/media?parent=4530"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/categories?post=4530"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/tags?post=4530"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}