Los conjuntos de datos desequilibrados por género pueden afectar el rendimiento de la clasificación de patologías de IA
Crédito: CC0 Dominio público
Un equipo de investigadores de la Universidad Nacional del Litoral, Consejo Nacional de Investigaciones Cientcas y la Universidad Nacional de Entre Ros, ambas en Argentina, ha encontrado evidencia de conjuntos de datos desequilibrados por género que afectan el rendimiento de la clasificación de patologías con sistemas de diagnóstico basados en IA. En su artículo publicado en Proceedings of the National Academy of Sciences, el grupo describe la prueba de tres algoritmos de máquina de código abierto utilizados para analizar imágenes de rayos X para detectar diversas afecciones médicas y lo que encontraron.
Aunque puede que no sea de conocimiento común, los sistemas de IA se utilizan actualmente en una amplia variedad de aplicaciones comerciales, incluida la selección de artículos en sitios de noticias y redes sociales, qué películas se hacen y los mapas que aparecen en nuestros teléfonos. Los sistemas de IA se han vuelto herramientas de confianza de las grandes empresas. Pero su uso no siempre ha estado exento de controversia. En los últimos años, los investigadores han descubierto que las aplicaciones de IA utilizadas para aprobar hipotecas y otras solicitudes de préstamos están sesgadas, por ejemplo, a favor de los hombres blancos. Los investigadores descubrieron que esto se debía a que el conjunto de datos utilizado para entrenar el sistema comprendía principalmente perfiles de hombres blancos. En este nuevo esfuerzo, los investigadores se preguntaron si lo mismo podría ser cierto para los sistemas de IA utilizados para ayudar a los médicos a diagnosticar a los pacientes.
El trabajo consistió en evaluar tres sistemas de IA de código abierto que aún se encuentran en etapa experimental. Cada uno fue entrenado en radiografías de tórax obtenidas de las bases de datos de NIH y de la Universidad de Stanford, las cuales contenían un poco más de perfiles masculinos. Para averiguar si los sistemas producirían resultados sesgados, los investigadores sesgaron los datos de varias maneras. En algunos casos, usaron principalmente perfiles masculinos, en otros principalmente femeninos.
Al observar sus resultados, los investigadores encontraron que había un claro sesgo cuando los datos eran en su mayoría masculinos, las tasas de error para procesar perfiles femeninos rosa. Lo mismo sucedía si se invertían las proporciones. También encontraron que la sobrerrepresentación de un género u otro no confería una ventaja, las tasas de error se mantuvieron relativamente estables.
Los investigadores no pudieron proporcionar una razón para las diferencias aparte de que los torsos masculinos y femeninos tienen diferencias físicas evidentes. Sugieren que la comunidad médica analice seriamente cómo se entrenan los sistemas de IA en aplicaciones médicas del mundo real.
Explore más
Sesgo sexual en la investigación del dolor Más información: Agostina J. Larrazabal el al., «El desequilibrio de género en los conjuntos de datos de imágenes médicas produce clasificadores sesgados para el diagnóstico asistido por computadora», PNAS (2020). www.pnas.org/cgi/doi/10.1073/pnas.1919012117 Información de la revista: Actas de la Academia Nacional de Ciencias
2020 Science X Network
Cita: Los conjuntos de datos desequilibrados de género pueden afectar el rendimiento de la clasificación de patologías de IA (26 de mayo de 2020) consultado el 31 de agosto de 2022 en https://medicalxpress.com/news/2020-05-gender-imbalanced-datasets-affect- ai.html Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.