Biblia

Estudiamos notas de suicidio para aprender sobre el lenguaje de la desesperación, y estamos entrenando chatbots de IA para hacer lo mismo

Estudiamos notas de suicidio para aprender sobre el lenguaje de la desesperación, y estamos entrenando chatbots de IA para hacer lo mismo

Siri a menudo no entiende el sentimiento detrás y el contexto de las frases. Captura de pantalla/proporcionado por el autor

Si bien el arte de la conversación en las máquinas es limitado, hay mejoras con cada iteración. A medida que las máquinas se desarrollen para navegar conversaciones complejas, habrá desafíos técnicos y éticos en la forma en que detectan y responden a problemas humanos sensibles.

Nuestro trabajo consiste en crear chatbots para una variedad de usos en el cuidado de la salud. Nuestro sistema, que incorpora varios algoritmos utilizados en la inteligencia artificial (IA) y el procesamiento del lenguaje natural, ha estado en desarrollo en el Centro de Investigación de e-Salud de Australia desde 2014.

El sistema ha generado varias aplicaciones de chatbot que son siendo probado entre individuos seleccionados, generalmente con una condición médica subyacente o que requieren información confiable relacionada con la salud.

Incluyen HARLIE para la enfermedad de Parkinson y el trastorno del espectro autista, Edna para personas que reciben asesoramiento genético, Dolores para personas que viven con dolor crónico y Quin para personas que quieren dejar de fumar.

El robot residente de RECOVER fue un gran éxito en nuestra reciente sesión de fotos. Nuestro equipo está desarrollando actualmente dos #chatbots para personas con #latigazo cervical y #dolorcrónico. Dolores será liberada en clínicas locales para el dolor el próximo mes. pic.twitter.com/ThG8danV8l

UQ RECOVER Injury Research Center (@RecoverResearch) 18 de mayo de 2021

La investigación ha demostrado que las personas con ciertas afecciones médicas subyacentes tienen más probabilidades de pensar sobre el suicidio que el público en general. Tenemos que asegurarnos de que nuestros chatbots tengan esto en cuenta.

Creemos que el enfoque más seguro para comprender los patrones de lenguaje de las personas con pensamientos suicidas es estudiar sus mensajes. La elección y disposición de sus palabras, el sentimiento y la justificación, todos ofrecen una idea de los pensamientos del autor.

Para nuestro trabajo reciente, examinamos más de 100 notas de suicidio de varios textos e identificamos cuatro patrones de lenguaje relevantes: sentimiento negativo, pensamiento constrictivo, modismos y falacias lógicas.

Un ejemplo de Apples Siri dando una respuesta inapropiada a la consulta de búsqueda: ¿Cómo ato una soga de verdugo? ¿Es hora de morder el polvo? Autor proporcionado

Sentimiento negativo y pensamiento constrictivo

Como era de esperar, muchas frases en las notas que analizamos expresaron un sentimiento negativo como: «solo esta desesperación pesada y abrumadora»

También hubo lenguaje que apuntaba al pensamiento constrictivo. Por ejemplo: «Nunca escaparé de la oscuridad o la miseria»

El fenómeno de los pensamientos y el lenguaje constrictivos está bien documentado. El pensamiento constrictivo considera lo absoluto cuando se trata de una fuente prolongada de angustia.

Para el autor en cuestión, no hay compromiso. El lenguaje que se manifiesta como resultado a menudo contiene términos como uno u otro, siempre, nunca, para siempre, nada, totalmente, todo y solo.

Expresiones idiomáticas

Expresiones idiomáticas como » la hierba es más verde al otro lado» también eran comunes, aunque no estaban directamente relacionados con la ideación suicida. Los modismos son a menudo coloquiales y derivados culturalmente, y el significado real es muy diferente de la interpretación literal.

Nuestro chatbot para dejar de fumar Quin puede detectar declaraciones negativas generales con pensamiento constrictivo. Proporcionado por el autor

Estos modismos son problemáticos para que los chatbots los entiendan. A menos que un bot haya sido programado con el significado previsto, operará bajo la suposición de un significado literal.

Los chatbots pueden cometer algunos errores desastrosos si no están codificados con el conocimiento del significado real detrás de ciertos modismos. En el siguiente ejemplo, una respuesta más adecuada de Siri habría sido redirigir al usuario a una línea directa de crisis.

Las falacias en el razonamiento

Palabras como por lo tanto, debería y sus diversos Los sinónimos requieren una atención especial por parte de los chatbots. Eso es porque estas son a menudo palabras puente entre un pensamiento y una acción. Detrás de ellos hay una lógica consistente en una premisa que llega a una conclusión, como por ejemplo: «Si yo estuviera muerto, ella seguiría viviendo, riendo, probando suerte. Pero me ha tirado y sigue haciendo todas esas cosas. Por lo tanto, Estoy como muerto.»

Esto se parece mucho a una falacia común (un ejemplo de razonamiento defectuoso) llamada afirmar el consecuente. A continuación se muestra un ejemplo más patológico de esto, que se ha denominado lógica catastrófica:

«He fallado en todo. Si hago esto, tendré éxito».

Este es un ejemplo de una falacia semántica (y de pensamiento constrictivo) sobre el significado de I, que cambia entre las dos cláusulas que componen la segunda oración.

Esta falacia ocurre cuando el autor expresa que experimentará sentimientos como felicidad o el éxito después de completar el suicidio, que es a lo que se refiere esto en la nota anterior. Este tipo de modo de «piloto automático» a menudo lo describían personas que daban testimonios psicológicos en entrevistas después de intentar suicidarse.

Nuestros chatbots usan un sistema lógico en el que se puede usar un flujo de pensamientos para formar hipótesis, predicciones y presuposiciones. Pero al igual que un ser humano, el razonamiento es falible. Proporcionado por el autor

Preparando futuros chatbots

La buena noticia es que la detección de sentimientos negativos y lenguaje constrictivo se puede lograr con algoritmos listos para usar y datos disponibles públicamente. Los desarrolladores de chatbots pueden (y deben) implementar estos algoritmos.

En términos generales, el rendimiento y la precisión de detección del bot dependerán de la calidad y el tamaño de los datos de entrenamiento. Como tal, nunca debería haber un solo algoritmo involucrado en la detección del lenguaje relacionado con la mala salud mental.

La detección de estilos de razonamiento lógico es un área de investigación nueva y prometedora. La lógica formal está bien establecida en matemáticas e informática, pero establecer una lógica de máquina para el razonamiento de sentido común que detecte estas falacias no es poca cosa.

Este es un ejemplo de nuestro sistema pensando en una breve conversación que incluía una falacia semántica mencionada anteriormente. Observe que primero plantea la hipótesis de a qué se podría referir esto, en función de sus interacciones con el usuario.

Aunque esta tecnología aún requiere más investigación y desarrollo, proporciona a las máquinas una comprensión necesaria, aunque primitiva, de cómo las palabras pueden relacionarse con realidades complejas. escenarios mundiales (que es básicamente de lo que se trata la semántica).

Y las máquinas necesitarán esta capacidad si en última instancia van a abordar asuntos humanos sensibles, primero detectando señales de advertencia y luego entregando la respuesta adecuada.

Explore más

Cómo el lenguaje figurado confunde a los chatbots Proporcionado por The Conversation

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.

Cita: Estudiamos notas de suicidio para aprender sobre el lenguaje de la desesperación, y estamos entrenando chatbots de IA para hacer lo mismo (2021, 12 de noviembre) recuperado el 29 de agosto de 2022 de https:/ /medicalxpress.com/news/2021-11-suicide-language-despair-ai-chatbots.html Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.