{"id":7734,"date":"2022-08-30T02:30:54","date_gmt":"2022-08-30T07:30:54","guid":{"rendered":"https:\/\/www.biblia.work\/articulos-salud\/ia-podria-empeorar-las-desigualdades-de-salud-existentes-para-los-grupos-etnicos-minoritarios-del-reino-unido-nuevo-informe\/"},"modified":"2022-08-30T02:30:54","modified_gmt":"2022-08-30T07:30:54","slug":"ia-podria-empeorar-las-desigualdades-de-salud-existentes-para-los-grupos-etnicos-minoritarios-del-reino-unido-nuevo-informe","status":"publish","type":"post","link":"https:\/\/www.biblia.work\/articulos-salud\/ia-podria-empeorar-las-desigualdades-de-salud-existentes-para-los-grupos-etnicos-minoritarios-del-reino-unido-nuevo-informe\/","title":{"rendered":"IA podr\u00eda empeorar las desigualdades de salud existentes para los grupos \u00e9tnicos minoritarios del Reino Unido: nuevo informe"},"content":{"rendered":"<p>Cr\u00e9dito: CC0 Public Domain <\/p>\n<p>Las tecnolog\u00edas basadas en datos como la inteligencia artificial (IA) son herramientas poderosas que demuestran potencial en el diagn\u00f3stico y tratamiento de enfermedades como la piel c\u00e1ncer. Sin embargo, esto podr\u00eda empeorar inadvertidamente las desigualdades en salud que experimentan los grupos \u00e9tnicos minoritarios si no se abordan con urgencia los desaf\u00edos actuales, como los algoritmos sesgados, la recopilaci\u00f3n deficiente de datos y la falta de diversidad en la investigaci\u00f3n y el desarrollo. <\/p>\n<p>Estos son los hallazgos de un nuevo libro blanco del Instituto de Innovaci\u00f3n en Salud Global (IGHI) del Imperial College London, que pide m\u00e1s investigaci\u00f3n y un debate transparente sobre la creaci\u00f3n y el uso de estas tecnolog\u00edas en el cuidado de la salud. <\/p>\n<p>El libro blanco revis\u00f3 la literatura acad\u00e9mica y la evidencia de pol\u00edticas para identificar los problemas y las oportunidades para que la IA y las tecnolog\u00edas basadas en datos mejoren la salud y la atenci\u00f3n de los grupos \u00e9tnicos minoritarios, que generalmente experimentan una salud m\u00e1s deficiente que la poblaci\u00f3n en general. como lo enfatiza la pandemia de COVID-19. El estudio incluy\u00f3 entrevistas con una variedad de expertos en el Reino Unido e internacionalmente en la academia, la industria, la pol\u00edtica y la pr\u00e1ctica del NHS, los organismos legales y reguladores, las organizaciones de atenci\u00f3n al paciente y las organizaciones ben\u00e9ficas.<\/p>\n<p>Los sistemas de inteligencia artificial se crean combinando grandes cantidades de datos, por ejemplo, de estudios de investigaci\u00f3n o de Internet. Luego, la informaci\u00f3n se usa para &#8216;entrenar&#8217; un programa de computadora o un algoritmo para tomar decisiones basadas en los datos. Por ejemplo, utilizando datos, los algoritmos de IA pueden crear &#8216;puntajes de riesgo&#8217; para predecir qu\u00e9 pacientes podr\u00edan desarrollar ciertas enfermedades en el futuro. <\/p>\n<p>Sin embargo, si gran parte de estos datos no son representativos de los grupos \u00e9tnicos minoritarios y se centran predominantemente, por ejemplo, en los participantes blancos, es m\u00e1s probable que estos sistemas tomen decisiones que excluyan a comunidades diversas. <\/p>\n<p>El informe presenta evidencia de este sesgo racial en la IA, lo que demuestra c\u00f3mo los grupos \u00e9tnicos minoritarios pueden verse desatendidos por la tecnolog\u00eda. Por ejemplo, los sistemas de reconocimiento facial han demostrado ser hasta un 19 % menos precisos en el reconocimiento de im\u00e1genes de hombres y mujeres negros en comparaci\u00f3n con las personas blancas. Este sesgo tambi\u00e9n se observa en la IA cuando se utiliza en la detecci\u00f3n y el tratamiento de problemas de salud como el c\u00e1ncer de piel. Las im\u00e1genes de pacientes blancos se utilizan predominantemente para entrenar algoritmos para detectar el melanoma, lo que podr\u00eda conducir a peores resultados para las personas negras a trav\u00e9s de diagn\u00f3sticos perdidos.<\/p>\n<p>Los autores argumentan que el sesgo inconsciente y consciente en la IA se debe en parte a la falta de diversidad. en la academia, entre los desarrolladores de IA y en niveles estrat\u00e9gicos del sistema de salud y el gobierno. <\/p>\n<p>Los expertos entrevistados para el informe tambi\u00e9n expresaron su preocupaci\u00f3n de que la falta de diversidad en la fuerza laboral de IA podr\u00eda conducir a soluciones que no son totalmente representativas de las necesidades de todos los usuarios. El informe advierte que mejorar la representaci\u00f3n en esta industria debe ir m\u00e1s all\u00e1 de abordar los procesos de contrataci\u00f3n. M\u00e1s bien, el problema tambi\u00e9n debe abordarse en todas las etapas de la educaci\u00f3n, desde la escuela primaria hasta el nivel de posgrado. <\/p>\n<p>Los autores destacan ejemplos de buenas pr\u00e1cticas observadas en la atenci\u00f3n social y de la salud tanto en el Reino Unido como en los EE. hacia el desarrollo de un sistema que facilite el desarrollo de tecnolog\u00edas de IA m\u00e1s representativas, dise\u00f1adas teniendo en cuenta la equidad. A nivel nacional, se est\u00e1 haciendo m\u00e1s para abordar algunas de estas desigualdades en la atenci\u00f3n m\u00e9dica. El gobierno anunci\u00f3 recientemente dos revisiones independientes, luego de la publicaci\u00f3n del Libro Blanco \u00abLevelling Up\u00bb, para abordar las disparidades en la salud, incluida una revisi\u00f3n sobre el impacto en la salud del posible sesgo en los dispositivos m\u00e9dicos.<\/p>\n<p>Dr. Saira Ghafur, l\u00edder de salud digital en el Instituto de Innovaci\u00f3n en Salud Global, dijo: \u00abLa IA tiene un tremendo potencial para la prestaci\u00f3n del sistema de atenci\u00f3n m\u00e9dica. Sin embargo, nuestro libro blanco muestra c\u00f3mo puede exacerbar las desigualdades en salud existentes en grupos \u00e9tnicos minoritarios. Al trabajar en todo el gobierno, la atenci\u00f3n m\u00e9dica y el sector de la tecnolog\u00eda, es crucial que nos aseguremos de que nadie se quede atr\u00e1s\u00bb.<\/p>\n<p>Lord James O&#8217;Shaughnessy, profesor invitado del Instituto de Innovaci\u00f3n en Salud Global, dijo: \u00abAbordar la desigualdad en salud es uno de los principales desaf\u00edos de nuestro tiempo. Los avances en IA y el aprendizaje autom\u00e1tico nos brindan nuevas herramientas para enfrentar este desaf\u00edo, pero nuestro entusiasmo debe moderarse con una evaluaci\u00f3n realista de los riesgos de que estas tecnolog\u00edas perpet\u00faen inadvertidamente las desigualdades.<\/p>\n<p>\u00bb Este documento explica c\u00f3mo estos riesgos podr\u00edan manifestarse y hace propuestas concretas sobre c\u00f3mo mitigarlos. Los formuladores de pol\u00edticas deben prestar atenci\u00f3n a las lecciones del informe para que los maravillosos avances en inform\u00e1tica puedan beneficiar a quienes m\u00e1s lo necesitan\u00bb.<\/p>\n<p>Con base en esta investigaci\u00f3n, los cient\u00edficos hacen una serie de recomendaciones para habilitar mejor la IA para las minor\u00edas. comunidades \u00e9tnicas. Estos incluyen: <\/p>\n<ul>\n<li>Involucrar a los pacientes y al p\u00fablico en todas las \u00e1reas de desarrollo de tecnolog\u00eda de IA. <\/li>\n<li>Crear sistemas de gobernanza, legislaci\u00f3n y regulaci\u00f3n en IA que protejan los datos y la <\/li>\n<li>Desarrollar un marco regulatorio para garantizar que los algoritmos se prueben y sean apropiados para grupos \u00e9tnicos minoritarios para reducir el sesgo en los conjuntos de datos.<\/li>\n<\/ul>\n<p>Profesor Ara Darzi, codirector de el Instituto de Innovaci\u00f3n en Salud Global, dijo: \u00abNuestro nuevo libro blanco identifica algunas consideraciones futuras importantes para maximizar el potencial de la IA para la salud de toda nuestra naci\u00f3n. Esperamos que nuestro informe pueda ser un catalizador para las conversaciones importantes que deben tenerse a medida que usamos cada vez m\u00e1s la IA en la atenci\u00f3n m\u00e9dica\u00bb. <\/p>\n<p>Explore m\u00e1s<\/p>\n<p> Las minor\u00edas \u00e9tnicas experimentan una desigualdad persistente en el tratamiento de los problemas de salud mental <strong> M\u00e1s informaci\u00f3n:<\/strong> Abordar las desigualdades raciales y \u00e9tnicas en las tecnolog\u00edas de la salud basadas en datos: imperialcollegelondon.app.box. grupos \u00e9tnicos minoritarios: nuevo informe (2022, 24 de febrero) recuperado el 29 de agosto de 2022 de https:\/\/medicalxpress.com\/news\/2022-02-ai-worsen-health-inequities-uk.html Este documento est\u00e1 sujeto a derechos de autor. de cualquier trato justo con el prop\u00f3sito de estudio o investigaci\u00f3n privada, ninguna parte puede ser reproducida sin el permiso por escrito El contenido se proporciona solo con fines informativos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cr\u00e9dito: CC0 Public Domain Las tecnolog\u00edas basadas en datos como la inteligencia artificial (IA) son herramientas poderosas que demuestran potencial en el diagn\u00f3stico y tratamiento de enfermedades como la piel c\u00e1ncer. Sin embargo, esto podr\u00eda empeorar inadvertidamente las desigualdades en salud que experimentan los grupos \u00e9tnicos minoritarios si no se abordan con urgencia los desaf\u00edos &hellip; <a href=\"https:\/\/www.biblia.work\/articulos-salud\/ia-podria-empeorar-las-desigualdades-de-salud-existentes-para-los-grupos-etnicos-minoritarios-del-reino-unido-nuevo-informe\/\" class=\"more-link\">Continuar leyendo<span class=\"screen-reader-text\"> \u00abIA podr\u00eda empeorar las desigualdades de salud existentes para los grupos \u00e9tnicos minoritarios del Reino Unido: nuevo informe\u00bb<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-7734","post","type-post","status-publish","format-standard","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts\/7734","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/comments?post=7734"}],"version-history":[{"count":0,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/posts\/7734\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/media?parent=7734"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/categories?post=7734"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.biblia.work\/articulos-salud\/wp-json\/wp\/v2\/tags?post=7734"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}