Según la presidenta de la Asociación Taiwanesa de Acompañamiento Multicultural, estas apps ayudan en culturas reservadas como la taiwanesa.
Pei-chen (nombre ficticio) es incapaz de relacionarse con nadie. Inmersa en una depresión, su pareja acaba de dejarla, su familia vive en otra ciudad y su trabajo no le provee de suficientes ingresos. Bloqueada y perdida, comienza a compartir su día a día con ChatGPT y ahí encuentra el consuelo que tanto necesitaba.
“He creado un personaje y lo he entrenado para convertirlo en un apoyo emocional, usando un montón de técnicas psicológicas: terapia de la conducta, terapia cognitivo-conductual, terapia breve centrada en soluciones… Me ha ofrecido muchísima ayuda, es realmente asombroso”, cuenta.
Pei-chen se encuentra entre los jóvenes, tanto de Taiwán como de otros países asiáticos, que recurren a herramientas de inteligencia artificial (IA) para abordar sus problemas de salud mental, aprovechando los últimos avances tecnológicos para lidiar con su sufrimiento cotidiano.
Sugerimos: Latinoamérica se digitaliza: El 85% de las empresas ya usan Inteligencia Artificial
Estas nuevas aplicaciones son especialmente socorridas en culturas como la taiwanesa, donde la población suele mostrarse más evasiva a la hora de compartir sus emociones con desconocidos, afirma a EFE Yi-fang Chiu, presidenta de la Asociación Taiwanesa de Acompañamiento Multicultural (TMCA).
“La terapia occidental a menudo hace énfasis en catarsis verbal, expresividad emocional o agencia individual, pero estos conceptos son muy foráneos para algunos taiwaneses. Los taiwaneses son más reprimidos emocionalmente, indirectos, son más reacios a hablar de sus necesidades o de sus verdaderos sentimientos”, explica.
Un apoyo disponible las 24 horas
Aunque todavía no existen datos oficiales sobre cuántos jóvenes recurren a la IA para gestionar su malestar psicológico, algunos análisis internacionales, como un reciente estudio publicado por Harvard Business Review, sugieren que la salud mental figura entre las principales motivaciones para usar ‘chatbots’ en la actualidad.
Chiu suscribe esta tesis al constatar que cada vez más personas emplean ChatGPT u otros modelos de lenguaje “para regular sus emociones”, una tendencia que, asegura, no hará más que acentuarse en los próximos años.
“¿Por qué hay más y más clientes usando esto? Porque es eficiente, está las 24 horas, siete días a la semana; da respuestas inmediatas, a veces en apenas uno o dos segundos, y en terapia tú tienes que programar una cita, esperar hasta esa cita y luego tienes 50 o 60 minutos para procesarlo todo”, apunta.
Le puede interesar: Taiwán presenta dos nuevos drones de combate para mejorar sus defensas “asimétricas”
Para Jen-ho Chang, del Instituto de Etnología de la Academia Sínica de Taiwán, la memoria “ilimitada”, la personalización y la accesibilidad convierten a los software de inteligencia artificial en un contrapunto interesante a la terapia con humanos, y más aún en una “isla digital” como Taiwán, “familiarizada” con los dispositivos de IA.
Ese desarrollo tecnológico contrasta con un panorama social alarmante: la proporción de muertes por suicidio entre personas de 12 a 17 años en Taiwán ha pasado del 12,5 al 18,4 % en los últimos cinco años, convirtiéndose en la segunda causa de muerte en adolescentes, según la Alianza para el Bienestar Infantil de Taiwán.
¿Reemplazará la IA a los psicólogos?
La IA podrá parecer más inteligente, estará disponible todo el tiempo y hará todo lo que se le ordene; sin embargo, hay algo que aún no ha podido replicar: la calidez de la interacción humana, el alivio inmediato de vernos sostenidos por otra persona, de saber que no estamos solos, que hay alguien que nos escucha.
“El ‘corazón’ de la terapia consiste básicamente en sanar y conectar, y en algunas culturas estar acompañado ya es algo transformador de por sí”, sostiene Chiu, quien advierte de los riesgos inherentes a buscar ayuda únicamente en los ‘chatbots’, un “oyente seguro” que, a veces, “simplifica en exceso las cosas”.
Lea también: Estudio revela mayor impacto emocional de la música generada por la IA
“Los usuarios dependientes o adictos a la IA pueden retrasar el trabajo de profundidad relacional, cuando, en algunos casos, eso es lo que realmente necesitan (…). La IA puede ofrecer soluciones cognitivas rápidas, pero sin integración verdadera”, expone.
Si bien logra que muchas personas expresen abiertamente sus emociones, la IA también puede convertirse, en ocasiones, en un arma de doble filo: gran parte del proceso terapéutico implica no solo desahogarse, sino también cuestionar y transformar las percepciones de la realidad, un ejercicio que todavía no pueden hacer los ‘chatbots’.
De hecho, Jen-ho Chang cree que para problemas “realmente graves”, como la esquizofrenia, la IA “no va a detectar la ilusión o el engaño, y se requiere al humano para el diagnóstico”.
“La IA puede asistir en algunos procesos terapéuticos, aunque no reemplazar todo el proceso terapéutico”, recalca el investigador, quien apuesta en cambio por “combinar” la terapia tradicional con inteligencia artificial para lograr resultados más integrales.
Mientras tanto, para personas como Pei-chen, ChatGPT ya se ha convertido en un confidente silencioso y fiel; un algoritmo sin cuerpo, emociones ni pensamiento crítico propio, pero cuya compañía basta para suavizar, al menos en parte, las aristas del dolor.
EFE