Inteligencia artificial para la equidad en la atención médica
(De izquierda a derecha:) Regina Barzilay es Profesora Distinguida de IA y Salud de la Facultad de Ingeniería y codirectora de IA del MIT Jameel Clinic. Collin Stultz es profesor de ingeniería eléctrica e informática y cardiólogo en el Hospital General de Massachusetts. Fotini Christia es profesora de ciencias políticas y directora del Centro de Investigación de Sistemas Sociotécnicos. Crédito: Instituto Tecnológico de Massachusetts
El potencial de la inteligencia artificial para generar equidad en la atención de la salud ha estimulado importantes esfuerzos de investigación. Las disparidades raciales, de género y socioeconómicas han afectado tradicionalmente a los sistemas de atención de la salud en formas que son difíciles de detectar y cuantificar. Sin embargo, las nuevas tecnologías de IA están proporcionando una plataforma para el cambio.
Regina Barzilay, Profesora Distinguida de IA y Salud de la Escuela de Ingeniería y codirectora de la facultad de IA para la Clínica MIT Jameel; Fotini Christia, profesor de ciencias políticas y director del Centro de Investigación de Sistemas Sociotécnicos del MIT; y Collin Stultz, profesor de ingeniería eléctrica y ciencias de la computación y cardiólogo en el Hospital General de Massachusetts, discuten aquí el papel de la IA en la atención médica equitativa, las soluciones actuales y las implicaciones políticas. Los tres son copresidentes de la Conferencia AI for Healthcare Equity, que tendrá lugar el 12 de abril.
P: ¿Cómo puede AI ayudar a abordar las disparidades raciales, de género y socioeconómicas en los sistemas de atención médica?
Stultz: Muchos factores contribuyen a las disparidades económicas en los sistemas de atención médica. Por un lado, hay pocas dudas de que el sesgo humano inherente contribuye a los resultados de salud dispares en las poblaciones marginadas. Aunque el sesgo es una parte ineludible de la psique humana, es insidioso, omnipresente y difícil de detectar. Los individuos, de hecho, son notoriamente malos para detectar sesgos preexistentes en su propia percepción del mundo, un hecho que ha impulsado el desarrollo de pruebas de asociación implícitas que permiten comprender cómo el sesgo subyacente puede afectar la toma de decisiones.
La IA proporciona una plataforma para el desarrollo de métodos que pueden hacer realidad la medicina personalizada, asegurando así que las decisiones clínicas se tomen de manera objetiva con el objetivo de minimizar los resultados adversos en diferentes poblaciones. El aprendizaje automático, en particular, describe un conjunto de métodos que ayudan a las computadoras a aprender de los datos. En principio, estos métodos pueden ofrecer predicciones imparciales que se basan únicamente en análisis objetivos de los datos subyacentes.
Desafortunadamente, sin embargo, el sesgo no solo afecta la forma en que las personas perciben el mundo que les rodea, sino que también influye en los conjuntos de datos que utilizamos. utilizar para construir modelos. Los conjuntos de datos de observación que almacenan las características y los resultados de los pacientes a menudo reflejan el sesgo subyacente de los proveedores de atención médica; por ejemplo, ciertos tratamientos pueden ofrecerse preferentemente a aquellos que tienen un nivel socioeconómico alto. En resumen, los algoritmos pueden heredar nuestros propios sesgos. Por lo tanto, hacer que la medicina personalizada sea una realidad se basa en nuestra capacidad para desarrollar e implementar herramientas imparciales que aprendan las decisiones específicas del paciente a partir de datos clínicos observacionales. Para el éxito de este esfuerzo es fundamental el desarrollo de métodos que puedan identificar el sesgo algorítmico y sugerir estrategias de mitigación cuando se identifique el sesgo.
Las decisiones clínicas informadas, objetivas y específicas del paciente son el futuro de la atención clínica moderna. . El aprendizaje automático contribuirá en gran medida a hacer de esto una realidad, logrando conocimientos clínicos basados en datos sin prejuicios implícitos que puedan influir en las decisiones de atención médica.
P: ¿Cuáles son algunas de las soluciones de IA que se están desarrollando actualmente en este espacio?
Barzilay: En la mayoría de los casos, las predicciones sesgadas se pueden atribuir a las propiedades de distribución de los datos de entrenamiento. Por ejemplo, cuando alguna población está subrepresentada en los datos de entrenamiento, es probable que el clasificador resultante tenga un rendimiento inferior en este grupo. Por defecto, los modelos están optimizados para el rendimiento general, por lo que, sin darse cuenta, prefieren adaptarse a la clase mayoritaria, a expensas del resto. Si somos conscientes de estos grupos minoritarios en los datos, tenemos varios medios para dirigir nuestro algoritmo de aprendizaje hacia un comportamiento justo. Por ejemplo, podemos modificar el objetivo de aprendizaje en el que imponemos una precisión constante en diferentes grupos, o volver a sopesar la importancia de los ejemplos de capacitación, amplificando «la voz» del grupo minoritario.
Otra fuente común de sesgo se relaciona con «variaciones molestas» donde las etiquetas de clasificación exhiben correlaciones idiosincrásicas con algunas características de entrada que son específicas del conjunto de datos y es poco probable que se generalicen. En un conjunto de datos infame con tal propiedad, el estado de salud de los pacientes con el mismo historial médico dependía de su raza. Este sesgo fue un artefacto desafortunado de la forma en que se construyeron los datos de entrenamiento, pero resultó en una discriminación sistemática de los pacientes negros. Si tales sesgos se conocen de antemano, podemos mitigar su efecto obligando al modelo a reducir el efecto de tales atributos. Sin embargo, en muchos casos, se desconocen los sesgos de nuestros datos de entrenamiento. Es seguro asumir que el entorno en el que se aplicará el modelo probablemente muestre alguna divergencia distribucional con respecto a los datos de entrenamiento. Para mejorar la tolerancia de un modelo a tales cambios, una serie de enfoques (como la minimización del riesgo invariable) entrenan explícitamente el modelo para generalizar sólidamente a nuevos entornos.
Sin embargo, debemos ser conscientes de que los algoritmos no son varitas mágicas que puede corregir todos los errores en los datos de entrenamiento desordenados del mundo real. Esto es especialmente cierto cuando no somos conscientes de la peculiaridad de un conjunto de datos específico. Desafortunadamente, este último escenario es común en el ámbito de la atención médica, donde la curación de datos y el aprendizaje automático a menudo son realizados por diferentes equipos. Estos sesgos «ocultos» ya han resultado en la implementación de herramientas de IA que cometen errores sistemáticos en ciertas poblaciones (como el modelo descrito anteriormente). En tales casos, es esencial proporcionar a los médicos herramientas que les permitan comprender la lógica detrás de las predicciones del modelo y detectar las predicciones sesgadas lo antes posible. Una gran cantidad de trabajo en aprendizaje automático se dedica hoy al desarrollo de modelos transparentes que pueden comunicar su razonamiento interno a los usuarios. En este punto, nuestra comprensión de qué tipos de fundamentos son particularmente útiles para los médicos es limitada, ya que las herramientas de IA aún no forman parte de la práctica médica de rutina. Por lo tanto, uno de los objetivos clave de la Clínica Jameel del MIT es implementar algoritmos clínicos de IA en hospitales de todo el mundo y estudiar empíricamente su desempeño en diferentes poblaciones y entornos clínicos. Estos datos informarán el desarrollo de la próxima generación de herramientas de IA justas y autoexplicables.
P: ¿Cuáles son las implicaciones políticas para las agencias gubernamentales y la industria de una IA más equitativa para el cuidado de la salud?
Christia: El uso de la IA en el cuidado de la salud ahora es una realidad y para Las agencias gubernamentales y la industria para cosechar los beneficios de una IA más equitativa para el cuidado de la salud, necesitan crear un ecosistema de IA. Deben trabajar en estrecha colaboración y comprometerse con los médicos y los pacientes para priorizar la calidad de las herramientas de IA que se emplean en este espacio, asegurándose de que estén seguras y listas para el horario de máxima audiencia. Esto significa que las herramientas de IA que se implementan deben probarse bien y conducir a mejoras tanto en la capacidad de los médicos como en la experiencia del paciente.
A tal efecto, los actores gubernamentales y de la industria deben pensar en campañas educativas que informen profesionales de la salud sobre la importancia de intervenciones específicas de IA para complementar y aumentar su trabajo para abordar la equidad. Más allá de los médicos, también debe haber un enfoque en generar confianza con los pacientes de minorías de que la introducción de estas herramientas de IA dará como resultado una atención mejor y más equitativa en general. Es particularmente importante ser también transparente sobre lo que significa el uso de la IA en la salud para el paciente individual, así como mitigar las preocupaciones sobre la privacidad de los datos de los pacientes de poblaciones minoritarias que a menudo no confían en un sistema de atención médica «bien intencionado», dado transgresiones históricas en su contra.
En el ámbito regulatorio, las agencias gubernamentales necesitarían armar un marco que les permitiera tener claridad sobre el financiamiento de la IA y la responsabilidad con la industria y los profesionales de la salud para que la más alta calidad Las herramientas de IA se implementan al mismo tiempo que se minimizan los riesgos asociados para los médicos y los pacientes que las usan. Los reglamentos deberían dejar en claro que los médicos no subcontratan completamente su responsabilidad a la máquina y delinear los niveles de responsabilidad profesional por la salud de sus pacientes. Al trabajar en estrecha colaboración con la industria, los médicos y los pacientes, las agencias gubernamentales también tendrían que monitorear a través de los datos y la experiencia del paciente la efectividad real de las herramientas de IA para abordar las disparidades en la atención médica en el terreno y estar en sintonía para mejorarlas.
Explore más
La investigación encuentra que la mayoría de los entrenamientos sobre prejuicios implícitos en el cuidado de la salud carecen de la base adecuada Proporcionado por el Instituto de Tecnología de Massachusetts
Esta historia se vuelve a publicar por cortesía de MIT News (web.mit.edu/newsoffice/), un sitio popular que cubre noticias sobre investigación, innovación y enseñanza del MIT.
Cita: Inteligencia artificial para la equidad en el cuidado de la salud (24 de marzo de 2021) consultado el 30 de agosto de 2022 de https://medicalxpress.com/news/2021-03-artificial-intelligence-health- equidad.html Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.