Las aplicaciones de salud mental no protegen sus datos

Imagínese llamar a una línea directa de prevención del suicidio durante una crisis. ¿Estás preguntando sobre sus políticas de recopilación de datos? ¿Supone que sus datos están protegidos y se mantienen seguros? Los eventos recientes pueden hacer que reconsidere sus respuestas con más cuidado.

Las tecnologías de salud mental, como los bots y las líneas de chat, sirven a las personas que atraviesan una crisis. Se encuentran entre los usuarios más vulnerables de cualquier tecnología y deben esperar que sus datos se mantengan seguros, protegidos y confidenciales. Desafortunadamente, los últimos tiempos muestran un ejemplo dramático del uso indebido de datos extremadamente confidenciales. Nuestra propia investigación ha encontrado que los desarrolladores de algoritmos de inteligencia artificial basados ​​en la salud mental, cuando recopilan datos, simplemente prueban que funcionan. Por lo general, no abordan las preocupaciones éticas, políticas y de privacidad. Al menos se deben aplicar los mismos estándares de ética de la salud a la tecnología utilizada en la prestación de atención de salud mental.

Políticamenteúltimamente reportado que Crisis Text Line, una organización sin fines de lucro que dice ser un recurso seguro y confidencial para personas en crisis, ha compartido datos que ha recopilado de los usuarios con su spin-off con fines de lucro Loris AI, que desarrolla software de servicio al cliente. Primero, un funcionario de Crisis Text Line defendió el intercambio de datos como ético y "completamente legal". Pero a los pocos días la organización Anunciado había terminado su relación de intercambio de datos con Loris AI, aunque afirmó que los datos fueron "manejados de forma segura, anonimizados y despojados de información de identificación personal".

Loris AI, una empresa que utiliza inteligencia artificial para desarrollar productos de servicio al cliente basados ​​en chatbots, utilizó datos generados por los más de 100 millones de intercambios de Crisis Text Line para ayudar a los agentes de servicio a comprender el sentimiento del cliente, por ejemplo. Según los informes, Loris AI ha borrado todos los datos Se obtuvo de Crisis Text Line, aunque no está claro si esto se extiende a los algoritmos entrenados con estos datos.

Este incidente y a otros les gusta Demostrar la creciente importancia de los datos de salud mental en el contexto del aprendizaje automático e ilustrar las áreas grises regulatorias a través de las cuales fluyen estos datos: el bienestar y la privacidad de las personas que están en riesgo o potencialmente en crisis están en juego quienes sufren las consecuencias de tecnologías digitales mal diseñadas. En 2018, los funcionarios fronterizos de EE. UU. negaron la entrada a varios canadienses que habían sobrevivido a intentos de suicidio, según la información de una base de datos policial. Vamos a pensarlo. Base de datos de aplicación de la ley para marcar a alguien que quiere cruzar una línea.

Artículo Recomendado:  ¿Debería tomar suplementos antioxidantes? - Nutrición

Los formuladores de políticas y los reguladores necesitan evidencia para gestionar adecuadamente la inteligencia artificial, y mucho menos su uso en productos de salud mental.

Preguntamos por ahí 132 Estudios que probaron tecnologías de automatización como chatbots en iniciativas de salud mental en línea Los investigadores en el 85 por ciento de los estudios no abordaron cómo las tecnologías podrían usarse de manera negativa, ya sea en el diseño del estudio o en el informe de los resultados. Y esto a pesar de que algunas de las tecnologías presentan serios riesgos de daño. Por ejemplo, 53 estudios utilizaron datos de redes sociales públicas, en muchos casos sin consentimiento, con fines predictivos, como tratar de determinar el diagnóstico de salud mental de una persona. Con la potencial discriminación a la que se podrían enfrentar las personas si estos datos se hicieran públicos.

Muy pocos estudios incluyeron aportes de personas que usaron servicios de salud mental En solo el 3 por ciento de los estudios, los investigadores parecieron incluir aportes de personas que usaron servicios de salud mental en el diseño, evaluación o implementación. El campo carece lamentablemente de la participación de aquellos que soportarán las consecuencias de estas tecnologías.

Los desarrolladores de salud mental de IA deben examinar los efectos negativos potenciales y a largo plazo del uso de diversas tecnologías de salud mental, ya sea que se usen los datos o qué sucede si la tecnología falla al usuario. debe incluir miembros de la junta de revisión institucional, patrocinadores, etc. Estos requisitos deben acompañar la adopción urgente Estándares que promueven la experiencia vivida en la investigación en salud mental.

En política, la mayoría de los estados de EE. UU. brindan protecciones especiales para la información típica de salud mental, pero las nuevas formas de datos de salud mental parecen tener solo una cobertura parcial. Datos del consumidor Productos para el cuidado de la salud, incluida la tecnología que alimenta los productos de salud mental basados ​​en IA. La Administración Federal de Medicamentos (FDA) y la Comisión Federal de Comercio (FTC) pueden desempeñar un papel en la evaluación de estas tecnologías directas al consumidor y sus afirmaciones. El alcance de la FDA no parece incluir recopiladores de datos de salud, como aplicaciones de bienestar, sitios web y redes sociales y, por lo tanto, excluye la mayoría de los datos de salud "indirectos". Principales preocupaciones en el caso de Crisis Text Line.

Es claro que la generación de datos sobre el sufrimiento humano atañe mucho más que a una posible invasión de la privacidad, también plantea riesgos para una sociedad abierta y libre La posibilidad de que las personas cambien su lenguaje y comportamiento por temor a la impredecible Datificación controladora de sus Mundo interior Imagine un mundo en el que necesitemos buscar "analistas de redes sociales" expertos que puedan ayudarnos a dar forma al contenido para que parezca "mentalmente saludable", o en el que los empleadores mueran. Revisar regularmente las redes sociales de los empleados potenciales en busca de "salud mental".

Artículo Recomendado:  ¿Eres adicto al café y la cafeína?

Los datos de todos, independientemente de si han recurrido a los servicios de salud mental, pronto podrían usarse para predecir el estrés o las lesiones en el futuro. la normativa vigente. Apple está trabajando actualmente con la multinacional de biotecnología Biogen y la Universidad de California, Los Ángeles, para examinar el uso de los datos del sensor del teléfono, como los patrones de movimiento y sueño, para inferir la salud mental y el deterioro cognitivo.

Si se procesan suficientes puntos de datos sobre el comportamiento de una persona, según la teoría, surgirán señales de enfermedad o discapacidad. Dichos datos confidenciales crean nuevas oportunidades para decisiones discriminatorias, sesgadas e invasivas sobre individuos y poblaciones con "deficiencia cognitiva" o probable que se convierta Estas cosas: ¿afectan las tarifas de seguro de una persona? ¿Podrán las personas impugnar tales designaciones antes de que los datos se compartan en otros lugares?

Las cosas se mueven rápido en el espacio de la salud mental digital, y cada vez más empresas ven el valor de usar los datos de las personas para fines de salud mental. Un informe del Foro Económico Mundial estima el mercado mundial de la salud digital en $ 118 mil millones en todo el mundo y llama a la salud mental uno de los sectores de más rápido crecimiento.. Una vertiginosa variedad de nuevas empresas están presionando para convertirse en la próxima gran cosa en salud mental, con empresas de "salud conductual digital". Según se informa, atrajo $ 1.8 mil millones solo en capital de riesgo en 2020.

Este flujo privado de capital contrasta fuertemente con los sistemas de atención médica con fondos insuficientes en los que vive la gente. Dificultad para acceder a los servicios apropiadosSin embargo, para muchas personas, las alternativas en línea más baratas al soporte en persona parecen ser la única opción. esta opción crea nuevas vulnerabilidades que apenas estamos comenzando a comprender.

SI NECESITAS AYUDA

Si usted o alguien que conoce está luchando o tiene pensamientos suicidas, hay ayuda disponible. Llame al 988 Suicide & Crisis Lifeline al 988 o envíe un mensaje de texto o use Internet Chat de la línea de vida.

Este es un artículo de opinión y análisis y las opiniones expresadas por el autor o los autores no reflejan necesariamente las de Científico americano.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

https://cdn.megakontraktor.co.id/

Situs Bandar

Situs Togel Terpercaya

Togel Online Hadiah 4D 10 Juta

Bandar Togel

Togel Online

Togel Toto Macau