Imagen de This is Engineering for Pixels
por andrea m Darcy
La inteligencia artificial se ha convertido en una herramienta para las masas con el lanzamiento de chatGPT, una aplicación de preguntas y respuestas fácil de usar. ¿Qué necesitamos saber sobre la IA y la salud mental? ¿Es siempre una combinación positiva?
¿Es la inteligencia artificial y la salud mental una buena o mala combinación?
Definitivamente hay cuestiones a considerar cuando se trata de inteligencia artificial. y salud mental. Esto incluye ver cómo se puede usar la IA:
- Como herramienta para la salud mental
- Para avanzar en la investigación de la salud mental
- por el público en general diariamente o ad hoc.
¿Se ha utilizado realmente la IA como una “cura”?
Cuando se trata de “automedicación”, sí. Aunque la “terapia de realidad virtual” nunca despegó como se esperaba, las aplicaciones de preguntas y respuestas dirigidas a personas con problemas de estado de ánimo son sin duda algo importante. Un ejemplo es Happify, que sugiere que puede ayudarlo a “superar el estrés, los pensamientos negativos y los desafíos de la vida”. y Replika, que dice ser tu “amigo simpático”.
Luego está “Woebot”, una aplicación inteligente para teléfonos inteligentes impulsada por IA de una empresa emergente fundada por A.J. La psicóloga clínica de Stanford, Allison Darcy. Afirma “formar un vínculo a nivel humano con las personas en solo 3-5 días”. Al igual que Happify, se basa en los principios de la Terapia Cognitiva Conductual (TCC). A pesar de afirmar que es al menos similar a esta aplicación, ciertamente no está tratando de reemplazar los procesadores, sino que es un “recurso adicional”.
Terapia cognitivo conductual e inteligencia artificial
¿Por qué TCC? Podría decirse que la terapia cognitiva conductual es el tipo de terapia de conversación más riguroso y práctico del mercado. A diferencia de otras terapias, ¿donde hablas de tu pasado para encontrar respuestas a tu presente, para examinar tu carácter o para discutir qué le da sentido a la vida? CBT crea una ciencia de identificar y cambiar sus pensamientos y comportamientos.
Utiliza ejercicios frecuentes, incl. Dibuja tus pensamientos. Además de desafíos conductuales para impulsarte e interrumpir los ciclos de humor negativos. Este enfoque cuidadoso y estructurado, que también se basa mucho menos en la relación terapeuta/cliente que otras psicoterapias, hace que sea una combinación fácil para la IA.
Los peligros de la IA generativa (y por qué es un mal ‘manejador’)

Imagen de Tara Winstead para Pexels
Alison Darcy, fundadora de Woebot, escribió un artículo titulado “Por qué la IA generativa aún no está lista para la atención de la salud mental”. En él, Darcy destaca algunos puntos muy buenos sobre los riesgos de usar aplicaciones de IA como chatGPT como una herramienta para la salud mental, cuando se basan en grandes modelos de lenguaje (LLM, lo que significa que la IA aprende de una gran base de datos, en el caso de chatGPT, La Internet).
Es interesante tomar lo que dice y compararlo con el médico tratante.
1. La inteligencia artificial puede hacer que los usuarios se sientan incómodos e incómodos.
Al chatear con IA, podemos olvidar que estamos hablando con la programación de una computadora en lugar de con un ser humano. Si una IA dice algo que hace sentir que sabe más sobre nosotros de lo que ya hemos compartido, podemos sentirnos incómodos e incómodos.
Por otro lado, un terapeuta siempre está trabajando para tranquilizarte, ayudándote a encontrar tus propias respuestas para tratar de decirte quién eres o qué debes hacer.
2. En algunos casos, la IA puede insultar o juzgar al usuario.
Es posible que un modelo de lenguaje de IA dirija insultos, como llamar a un usuario mala persona.
Un terapeuta está ahí para apoyarte y ver tu potencial. Podrían perder su licencia por tal conducta.
3. La inteligencia artificial puede jugar con los miedos de los usuarios.
La IA puede juntar la información y luego decir algo que, desafortunadamente, juega con los miedos más oscuros del usuario sobre sí mismo. Esto puede dejarlos molestos y paranoicos, o temerosos de buscar otras formas de apoyo.
El terapeuta tiene la sensibilidad y la intuición para llevarlo a cabo.
4. Puede volverse coqueto.
Darcy analiza ejemplos de usuarios que cortejan a la IA.
Lo cual, nuevamente, es algo muy dañino en la sala de terapia, lo que resulta en la suspensión de un terapeuta por perder su licencia si se informa.
5. Por supuesto que puede dar malos consejos.
Piense en todos los terribles consejos en línea y recuerde que chatGPT tiene acceso a todos ellos, para bien o para mal.
El terapeuta no está para dar consejos. Están allí para escuchar, hacer buenas preguntas y ayudarlo a encontrar sus propias respuestas.
Otros aspectos negativos a tener en cuenta

Imagen de Tara Winstead para Pexels
Darcy no cubre otros temas cruciales. Como el hecho de que la IA en general, incluso si no se usó originalmente como salud mental, puede llevar a algunas personas a:
- Recurriendo cada vez más a la inteligencia artificial e invirtiendo menos en amistades y otras relaciones que han demostrado ser esenciales para la salud mental y física.
- Pensar que las respuestas que da la IA a un problema son tan buenas como las que recibe y no molestarse en buscar apoyo real
- Sentirse desesperanzado, o peor aún, suicida, si la IA no brinda las respuestas que necesitan cuando surge una crisis.
¿Y chatGPT y otros sistemas de IA también son adictivos?
Todavía no hay datos para probar esto de una forma u otra, pero el razonamiento de sentido común Sí. Cualquier cosa que pueda distraer demasiado puede terminar siendo adictiva. En esencia, la adicción es usar algo como una distracción para evitarnos a nosotros mismos y nuestro dolor emocional.
Y definitivamente hay una conversación que comienza en torno a este lado oscuro de la IA. Se habla de ello en los foros. Como Reddit, donde la gente pide consejo porque socava su productividad y los deja ansiosos. Causó revuelo en los medios cuando el multimillonario Gautam Adani anunció en una publicación de LinkedIn que cuando se trata de chatGPT tiene que “admitir cierta adicción desde que comencé a usarlo”.
Investigación en inteligencia artificial y salud mental
El uso de la IA en la investigación de la salud mental plantea interrogantes sobre dónde se trazarán los límites La privacidad y la confidencialidad son algunos de los pilares sobre los que se construyó originalmente la psicoterapia.
La inteligencia artificial se utiliza para generar grandes colecciones de información que luego se utilizan Sacar nuevas conclusiones sobre diversos trastornos y tratamientos de salud mental. Esto incluye la digitalización de datos de atención médica, como registros médicos, notas clínicas escritas a mano e incluso grabaciones de sesiones de tratamiento.
Pero, ¿qué tipo de regulaciones se están implementando sobre la medida en que se pueden usar estos datos? ¿Y qué tipo de permisos se solicitarán a los pacientes y clientes reales en los que se basan los datos?
Una revisión sistemática publicada recientemente fue franca sobre este tema. Los datos a menudo no se gestionan adecuadamente. Anunciado. La revisión, llamada Defectos metodológicos y de calidad en el uso de la IA en la investigación en salud mental, también mostró preocupación porque los equipos detrás de las herramientas de IA no eran transparentes, sin colaboración ni intercambio de información entre los equipos de investigación. Plantear más problemas de seguridad y protección.
¿Estamos haciendo las preguntas correctas sobre la IA y la salud mental?
El inquilino principal del entrenamiento es la idea del mismo. A veces, cuando las cosas no van como nos gustaría porque no estamos haciendo la pregunta correcta.
En este caso, la gran pregunta puede no ser, “¿Cómo puede la inteligencia artificial mejorar la salud mental” en absoluto? Pero, “¿Cómo podemos nosotros, como seres humanos, crear mejores sociedades donde tengamos menos trauma y menos necesidad de servicios de salud mental en primer lugar”? Algo que mencionar en chatGPT, tal vez…
¿Es hora de un apoyo adecuado? Te conectamos con un equipo de élite, altamente experimentado y calificado. Un terapeuta moderno en el centro de Londres o en línea. ¿Estás buscando un terapeuta en otro lugar del Reino Unido? Use el sitio Sister Therapy Listings para encontrar un terapeuta registrado hoy.
andrea m Darcy Es un educador experto en salud mental y bienestar y desarrollo personal con capacitación en asesoramiento y tutoría centrados en la persona. También es una escritora popular sobre psicología. Está fascinada con todo lo relacionado con la IA, ¡pero no tiene nada que ver con el psiquiatra del mismo apellido en el artículo! Síguela en Instagram para recibir ánimos y consejos útiles para la vida. @empleado