Ante el aumento en el uso de la inteligencia artificial (IA) como terapeuta emocional por parte de los jóvenes, expertos aseguraron que el fenómeno es resultado de la ausencia de infraestructura social para atender la salud mental, así como por la intimidad, el anonimato, la ausencia de juicio, la validación y la accesibilidad permanente que brinda esta tecnología.
De acuerdo con la revista UNAM Global, estimaciones recientes revelaron que 37% de los adultos han recurrido a herramientas de IA con el propósito de buscar apoyo emocional, mientras que 38% de los usuarios reportaron utilizarlas semanalmente para hablar de temas emocionales.
Entre los jóvenes, el fenómeno es aún más marcado, pues 13% de los adolescentes entre 12 y 17 años afirmaron usar la IA para recibir consejos sobre salud mental, y entre los de 18 y 21 años la cifra aumentó a 22%.
En entrevista con EL UNIVERSAL, Jaime Fuentes Balderrama, profesor de Trabajo Social en la Universidad de Texas y egresado de Psicología de la Universidad Iberoamérica, sostuvo que el fenómeno se da como resultado de la ausencia de infraestructura social para atender la salud mental, así como por la inmediatez y la personalización de las respuestas.
«Que los jóvenes acaben utilizando inteligencia artificial es el síntoma de la falta de infraestructura en salud mental que tenemos en el país, de los pocos profesionales en la materia y de las grandes barreras de alcance que tienen los jóvenes a los profesionales», dijo.
«Si existe esa necesidad en distintos contextos a nivel nacional, las poblaciones van a hacer lo posible por encontrar o remediar eso con lo que les sea más familiar o con lo que tengan a la mano (…) La gente hace lo que puede con lo que tiene», agregó.
Fuentes Balderrama puntualizó que la inmediatez, sumado a que los modelos de IA están diseñados para proporcionar respuestas personalizadas, ayuda a los jóvenes a «engancharse» y a sentirse mejor con estas prácticas en comparación con acudir a un terapeuta, «porque tal vez éste resalte algunos problemas y algunas verdades incómodas». Para él, algunos efectos negativos de usar la IA como terapeuta radican en la «artificialidad» y la falta de contexto en las respuestas, «porque tienes una respuesta inmediata, que está ideada y personalizada con lo que tú quieres escuchar, con la información que tú le has dado, y siempre te va a dar la razón».
El especialista también advirtió por la calidad de la información y de las respuestas proporcionadas por los modelos de IA, «porque no están entrenadas por profesionales de salud mental. Nosotros tenemos teorías que sustentan el por qué hacemos las cosas que hacemos, por qué intervenimos de la manera en que intervenimos, pero la IA no lo sabe».
Adicionalmente, resaltó que estos modelos no siempre recurren a información fidedigna para generar sus respuestas, «lo que es parte del peligro, porque puede encontrar conceptos y recomendaciones que están de moda, pero no aplica a lo que tú estás viviendo».
Desde su perspectiva, emplear la IA es recomendable en términos educativos para sicólogos en formación y para algunas cuestiones dentro de la clínica, «siempre y cuando esté respaldado por ciencia, esté bien documentado cuáles son sus efectos, pero, así como va para cualquier persona es una muy mala idea».
Cimenna Chao Rebolledo, directora de Innovación Educativa de la Universidad Iberoamericana y doctora en Psicología Educativa y del Desarrollo por la UNAM, aseveró que el uso de la IA como terapeuta es por la carencia de un entorno humano que provea acompañamiento y contención emocional, así como por la falta de acceso a servicios de salud mental.
Sumado a ello, expuso que los jóvenes perciben que estas herramientas los comprenden, porque ofrecen un ambiente de intimidad, anonimato, ausencia de juicio, validación y accesibilidad permanente, «pues pueden, a través de estas tecnologías, empezar a hablar de esas emociones difíciles sin sentirse juzgados o estigmatizados».
Para ella, algunas consecuencias del uso de modelos de IA no especializados en salud mental son la dependencia emocional; la erosión de las capacidades socioemocionales, como la autocontención, la autorregulación y la conciencia emocional, así como el aislamiento social.
Además, la especialista advirtió que dentro de estos modelos los jóvenes se exponen a información poco veraz y descontextualizada, «donde (…) se arriesgan a recibir consejos peligrosos o inadecuados que terminan en situaciones desafortunadas».
Paralelamente, destacó que ante la vulnerabilidad y aflicción humana, la terapia necesita el acompañamiento y la contención de otro ser humano que «pueda generar la suficiente fricción emocional para cuestionar lo que estamos sintiendo y para orientar acciones incómodas que nos ayuden a transformar y salir de una situación emocionalmente difícil, y eso no lo hace el chat, no está programado ni sabe hacerlo».Sun
Se Refugian Jóvenes en la IA
RELATED ARTICLES





