https://www.clearpaththerapysantaclarita.com/

Los chatbots de IA podrían ayudar con la terapia, pero se recomienda precaución

En los foros de Reddit, muchos usuarios que discuten sobre salud mental están entusiasmados con sus interacciones con ChatGPT, el chatbot de inteligencia artificial de OpenAI que participa en conversaciones similares a las humanas al predecir la siguiente palabra probable en una oración”.ChatGPT es mejor que mi terapeuta", escribió un usuario, y agregó que el programa escuchó y respondió mientras la persona discutía sus problemas para manejar su mente. "De una manera muy aterradora, me siento ESCUCHADO por ChatGPT." Otros usuarios han hablado sobre pedirle a ChatGPT que actúe como terapeuta porque no pueden pagar uno real.

El entusiasmo es comprensible, especialmente dada la escasez de profesionales de la salud mental en los EE. UU. y en todo el mundo. Las personas que buscan ayuda psicológica a menudo enfrentan largas listas de espera y el seguro no siempre cubre el costo de la terapia y otros cuidados de salud mental. Los chatbots avanzados como ChatGPT y Google Bard podrían ayudar a brindar terapia, aunque en última instancia no pueden reemplazar a los terapeutas. "No hay lugar para eso en la medicina". [chatbots] será tan efectivo como lo es en la salud mental”, dice Thomas Insel, exdirector del Instituto Nacional de Salud Mental y cofundador de Vanna Health, una empresa emergente que conecta a las personas que viven con enfermedades mentales graves con los proveedores de atención. En el campo de la salud mental, “no tenemos procedimientos: hablamos, nos comunicamos”.

Pero a muchos expertos les preocupa si las empresas de tecnología respetan la privacidad de los usuarios vulnerables, programan salvaguardas apropiadas para garantizar que la IA no proporcione información falsa o dañina, o priorizan los tratamientos para personas ricas y sanas en lugar de aquellas con trastornos mentales graves. "Los algoritmos han mejorado, pero, en última instancia, no creo que tengan en cuenta las realidades sociales más caóticas en las que se encuentran las personas cuando buscan ayuda", dice Julia Brown, antropóloga de la Universidad de California en San Francisco.

Índice
  1. Asistente de terapeuta
  2. Riesgos de la externalización de la atención

Asistente de terapeuta

El concepto de "robots terapeutas" existe desde al menos 1990, cuando los programas de computadora comenzaron a ofrecer intervenciones psicológicas que guían a los usuarios a través de procedimientos programados, como terapia de conducta cognitiva. Más recientemente, aplicaciones populares como las de Woebot Health y Wysa han introducido algoritmos de IA más avanzados que pueden hablar con los usuarios sobre sus preocupaciones. Ambas empresas afirman que sus aplicaciones se han descargado más de un millón de veces. Y los chatbots ya se están utilizando para evaluar a los pacientes mediante cuestionarios estándar. Muchos proveedores de salud mental del Servicio Nacional de Salud del Reino Unido utilizan un chatbot de una empresa llamada Limbic para diagnosticar ciertas enfermedades mentales.

Sin embargo, los nuevos programas como ChatGPT son mucho mejores que las IA anteriores para interpretar el significado de la pregunta de un humano y responder de manera realista. Estos chatbots de modelo de lenguaje grande (LLM) están entrenados en cantidades masivas de texto de toda la web y pueden asumir diferentes personajes, hacer preguntas a un usuario y sacar conclusiones precisas de la información que el usuario les brinda.

Como asistente de proveedores humanos, Insel dice que los chatbots LLM podrían mejorar en gran medida la atención de la salud mental, especialmente para las personas marginadas y en estado crítico. Hay una grave escasez de profesionales de la salud mental, especialmente aquellos dispuestos a trabajar con personas encarceladas y personas sin hogar, lo que se ve agravado por la cantidad de tiempo que los proveedores tienen que dedicar al papeleo, dice Insel. Los programas como ChatGPT podrían resumir fácilmente las sesiones de los pacientes, crear los informes necesarios y permitir que los terapeutas y psiquiatras pasen más tiempo tratando a las personas. "Podríamos aumentar nuestra fuerza de trabajo. Un 40 por ciento trasladando la documentación y los informes a las máquinas", dice.

Pero usar ChatGPT como terapeuta es un asunto más complejo. Si bien algunas personas pueden ser reacias a compartir sus secretos con una máquina, los LLM a veces pueden proporcionar mejores respuestas que muchos usuarios humanos, dice Tim Althoff, científico informático de la Universidad de Washington. Su grupo ha estudiado cómo los consejeros de crisis expresan empatía en los mensajes de texto y ha capacitado a los programas LLM para brindar a los escritores comentarios basados ​​en las estrategias utilizadas por aquellos que son más efectivos para sacar a las personas de la crisis.

Artículo Recomendado:  Psicólogos instan a sus colegas a tomar medidas climáticas

“Hay mucho más [to therapy] que escribir eso en ChatGPT y ver qué sucede”, dice Althoff. Su grupo ha trabajado con la organización sin fines de lucro Mental Health America para desarrollar una herramienta basada en el algoritmo que impulsa ChatGPT. Los usuarios ingresan sus pensamientos negativos y el programa sugiere formas en que pueden responder y convertir esos pensamientos específicos en algo positivo. Hasta ahora, más de 50 000 personas han usado la herramienta, y Althoff dice que los usuarios tienen más de siete veces más probabilidades de completar el programa que un programa similar que proporciona respuestas enlatadas.

Los chatbots empáticos también podrían ser útiles para grupos de apoyo entre pares como TalkLife y Koko, donde personas sin capacitación especial envían mensajes útiles y alentadores a otros usuarios. En un estudio publicado en inteligencia artificial natural en enero, cuando Althoff y sus colegas hicieron que compañeros de apoyo redactaran mensajes utilizando un chatbot empático y descubrieron que casi la mitad de los destinatarios prefería los textos escritos con la ayuda del chatbot sobre los escritos únicamente por humanos, calificándolos un 20 por ciento más perspicaces.

Pero aún es importante mantener a un humano informado. En un experimento realizado por el cofundador de Koko, Rob Morris descrito en TwitterLos ejecutivos de la compañía descubrieron que los usuarios a menudo podían saber si las respuestas provenían de un bot y no les gustaban esas respuestas una vez que sabían que los mensajes estaban siendo generados por IA. (El experimento provocó una reacción violenta en línea, pero Morris dice que la aplicación incluía un aviso que informaba a los usuarios que los mensajes se escribieron en parte con IA). Parece que "mientras sacrificamos la eficiencia y la calidad, estamos reduciendo el desorden de las interacciones humanas a favor de las que vino antes”, dice Morris.

Los investigadores y las empresas que desarrollan chatbots de salud mental insisten en que no están tratando de reemplazar a los terapeutas humanos, sino de complementarlos. Finalmente, las personas pueden hablar con un chatbot cuando lo deseen, no solo cuando pueden obtener una cita, dice el director de programas de Woebot Health, Joseph Gallagher. Esto puede acelerar el proceso de terapia y las personas pueden confiar en el bot. Se cree que el vínculo o alianza terapéutica entre una terapia y un cliente representa un gran porcentaje de la efectividad de una terapia.

En un estudio de 36 000 usuarios, los investigadores de Woebot Health, que no usa ChatGPT, encontraron que los usuarios Cree un vínculo de confianza con el chatbot de la empresa en cuatro díasbasado en un cuestionario estándar que mide la alianza terapéutica versus semanas con un terapeuta humano. "Escuchamos de la gente, 'No hay manera de que yo pudiera haberle dicho eso a un ser humano'", dice Gallagher. "Reduce las apuestas y reduce la vulnerabilidad".

Riesgos de la externalización de la atención

Sin embargo, a algunos expertos les preocupa que la confianza pueda resultar contraproducente, especialmente si los chatbots no son precisos. Una teoría llamada "sesgo de automatización" sugiere que es más probable que las personas confíen en los consejos de las máquinas que en los consejos humanos, incluso cuando son incorrectos. Ul tonterías, la gente tiende a aceptarlo más”, dice Evi-Anne van Dis, investigadora de psicología clínica en la Universidad de Utrecht en los Países Bajos.

Y la calidad de los consejos que pueden dar los chatbots aún es limitada. no puedes capturar Información que un ser humano tomaría como una indicación de un problema, como una pregunta de una persona con un peso muy bajo sobre cómo perder peso. Van Dis teme que los programas de IA estén sesgados hacia ciertos grupos de personas si la literatura médica en la que fueron capacitados, probablemente de países occidentales ricos, contiene prejuicios. Es posible que estén pasando por alto las diferencias culturales en la forma en que se expresa la enfermedad mental o que lleguen a conclusiones equivocadas en función de cómo un usuario escribe en el segundo idioma de esa persona.

Artículo Recomendado:  Estrategias para reorganizar la celoxibina

La mayor preocupación es que los chatbots puedan dañar a los usuarios, por ejemplo, sugiriendo que suspendan el tratamiento o incluso abogando por la autolesión. En las últimas semanas, la Asociación Nacional de Trastornos de la Alimentación (NEDA, por sus siglas en inglés) ha sido criticada por cerrar previamente su línea directa, atendida principalmente por humanos, a favor de un chatbot llamado Tess, que no se basaba en IA generativa, sino que proporcionaba a los usuarios un guión: asesoramiento basado. En publicaciones de algunos usuarios, Tesa en ocasiones dio consejos sobre cómo perder peso, el blanco puede ser desencadenante para las personas con trastornos alimentarios. NEDA bloqueó el chatbot el 30 de mayo y en un opinión que comprueba lo sucedido.

"En su forma actual, no son adecuados para entornos clínicos donde la confianza y la precisión son primordiales", dice Ross Harper, director ejecutivo de Limbic, refiriéndose a los chatbots de IA que no se han adaptado para uso médico. Le preocupa que los desarrolladores de aplicaciones de salud que no cambien los algoritmos subyacentes para incorporar buenas prácticas científicas y médicas desarrollen sin darse cuenta algo dañino. "Podría hacer retroceder a todo el campo", dice Harper.

Chaitali Sinha, directora de investigación y desarrollo clínico de Wysa, dice que su industria se encuentra en un estado de limbo mientras los gobiernos consideran cómo regular los programas de IA como ChatGPT. "Si no puede regularlo, no puede usarlo en entornos clínicos", dice ella. Van Dis agrega que el público sabe poco sobre cómo las empresas tecnológicas recopilan y utilizan la información que los usuarios introducen en los chatbots, lo que genera preocupaciones sobre posibles violaciones de la confidencialidad, o cómo se entrenaron los chatbots en primer lugar.

Limbic, que está probando una aplicación de terapia basada en ChatGPT, está tratando de resolver este problema agregando un programa separado que limita las respuestas de ChatGPT a la terapia basada en evidencia. Harper dice que las autoridades sanitarias aún pueden clasificar y regular este y otros programas de "capas" similares como productos médicos, incluso si las leyes sobre el programa de IA subyacente aún están pendientes.

Wysa actualmente está solicitando a la Administración de Drogas y Alimentos de los EE. UU. la aprobación de su chatbot para proporcionar terapia cognitiva conductual como dispositivo médico, lo que, según Sinha, podría suceder dentro de un año. Wysa usa una IA que no es ChatGPT, pero Sinha dice que la compañía podría considerar la IA generativa una vez que las regulaciones sean más claras.

A Brown le preocupa que sin las regulaciones existentes, los usuarios emocionalmente vulnerables tendrán que decidir por sí mismos si un chatbot es confiable, preciso y útil. También le preocupa que los chatbots con fines de lucro se desarrollen principalmente para "personas preocupadas" (personas que pueden pagar terapia y suscripciones a aplicaciones) en lugar de personas aisladas que pueden ser más vulnerables pero que no saben cómo pueden buscar ayuda.

En última instancia, dice Insel, la pregunta es si la terapia es mejor que nada. "La terapia es mejor cuando hay una conexión profunda, pero ese no suele ser el caso para muchas personas, y es difícil obtener atención de calidad", dice. Sería casi imposible capacitar a suficientes terapeutas para satisfacer la demanda, y las asociaciones entre profesionales y chatbots cuidadosamente diseñados podrían aliviar enormemente la carga. "La salida es equipar a un ejército de personas con estas herramientas", dice Insel.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

slot bonus

https://insanecraftsupply.com/