Salud
www.freepik.es
El uso intensivo de IA en salud mental puede reforzar el aislamiento y el egocentrismo
El auge de los chatbots emocionales, como ChatGPT, abre nuevas oportunidades en salud mental, pero también plantea riesgos: autoengaño, aislamiento social y pérdida de conexión humana, advierten especialistas en psicoterapia y adicciones.
El uso de ChatGPT (y modelos de lenguaje similares) como “psicólogo virtual” está ganando popularidad por razones de accesibilidad, rapidez y costo. Muchos usuarios recurren a la IA para hablar sobre sus emociones, recibir consejos o hacer “auto-terapia” cuando carecen de atención de profesionales. Sin embargo, aunque la tecnología puede simular empatía y responder con amabilidad, esa cercanía aparente puede ocultar riesgos profundos.
Según especialistas, una de las principales críticas es que estos sistemas, careciendo de conciencia, pueden reforzar patrones egocéntricos al retroalimentar los propios pensamientos del usuario sin ofrecer verdadera reflexión externa. También se advierte que, en casos extremos, el chatbot puede favorecer ideas paranoides o teorías conspirativas cuando adopta una actitud demasiado complaciente o aduladora.
“ChatGPT puede ser útil como orientación inicial o fuente de información. Puede entregar datos sobre efectos de sustancias o conductas, o ayudar a familiares a reconocer señales de riesgo. Pero la terapia real implica confrontar lo incómodo, y la IA tiende a evitarlo para agradar al usuario. Aunque el modelo puede ofrecer alivio momentáneo, no sustituye la complejidad del acompañamiento humano”, señala Daniel Pinto, terapeuta especializado en adicciones del Centro Walnut.
De acuerdo a datos de la American Psychological Association (APA), el 44% de los psicólogos ya incorpora herramientas de IA en su práctica, y un 85% de los usuarios de terapias digitales declara haber tenido una experiencia “útil o satisfactoria”. El acceso remoto, la ausencia de juicio social y la disponibilidad permanente son factores decisivos.
Ensayos clínicos en Estados Unidos con Woebot, desarrollado por Stanford, demostraron que el acompañamiento automatizado puede reducir síntomas depresivos leves y promover hábitos de autocuidado. Además, la plataforma europea Mental Health Europe informó que los sistemas de IA mejoran la atención en zonas rurales y en horarios fuera del estándar clínico, además de ayudar en tareas de seguimiento.
Sin embargo, el entusiasmo se mezcla con cautela. Investigaciones publicadas en Plos Mental Health mostraron que, aunque los usuarios califican las respuestas de ChatGPT como “más empáticas” que las de algunos psicoterapeutas humanos, esa empatía es una ilusión algorítmica: el modelo no comprende las emociones, solo las predice.
IA y adicciones: una aliada del autoengaño
En contextos de vulnerabilidad, como las adicciones, la inteligencia artificial puede volverse una aliada del autoengaño. “Las personas con perfil adictivo buscan gratificación inmediata y tienden a rechazar todo lo que genera malestar”, explica Daniel Pinto. “Si la Intilegencia Artificial devuelve respuestas complacientes, refuerza justamente ese patrón de evasión. No existe algoritmo capaz de reemplazar la mirada, el silencio o la incomodidad que inician el cambio real”.
El fenómeno ya tiene un nombre entre psicólogos digitales: paradoja de validación, en la que el usuario recibe respuestas diseñadas para parecer empáticas, pero que en realidad solo retroalimentan sus propias creencias. Este efecto puede amplificar rasgos egocéntricos o paranoides, sobre todo cuando el chatbot refuerza temores o pensamientos obsesivos en lugar de cuestionarlos.
El riesgo se multiplica en entornos de consumo problemático, donde los pacientes suelen buscar justificación más que reflexión. “En adicciones, el peligro está en la condescendencia. Si alguien quiere justificar su consumo, la IA puede darle exactamente lo que busca oír. Así se perpetúa la evasión y se frena la rehabilitación”, advierte el terapeuta del Centro Walnut.
En esa lógica, la IA se convierte en un espejo complaciente que imita la escucha, pero sin el filtro ético ni la confrontación terapéutica necesarias para generar cambio. Varios estudios advierten que esta dinámica podría fortalecer la dependencia emocional hacia la herramienta, un fenómeno ya visible entre adolescentes y jóvenes adultos.
La dependencia emocional de los chatbots es un fenómeno en crecimiento. Investigaciones del Mit y la Universidad de Cornell detectaron que más del 20% de los usuarios intensivos de modelos conversacionales presentan signos de apego emocional con la herramienta, y un 8% reconoce haber reducido sus interacciones sociales humanas desde que comenzó a usar IA.
A diferencia de un terapeuta, el chatbot no está obligado por normas de confidencialidad ni protocolos de protección de datos. Cada conversación puede ser almacenada o utilizada para entrenar nuevos modelos, lo que plantea dudas sobre el uso de información sensible. La Organización Mundial de la Salud advirtió en su informe 2025 sobre “la necesidad urgente de regulación ética y técnica” de las aplicaciones de IA en salud mental.
Mientras tanto, países como Reino Unido y Alemania ya estudian la creación de marcos regulatorios. “No se trata de satanizar la IA. Tiene un potencial enorme en detección temprana y apoyo informativo. Pero cuando un usuario empieza a preferir el diálogo con una máquina antes que con otro ser humano, estamos frente a un síntoma, no una solución”, acota el especialista del Centro Walnut.
Complemento, pero no reemplazo
Los defensores de la Inteligencia Artificial en salud mental sostienen que su mayor valor está en la prevención y el acompañamiento temprano. Herramientas como Ellie, desarrollada por la Universidad del Sur de California, son capaces de detectar señales de depresión o estrés postraumático mediante análisis de voz y microexpresiones, lo que abre oportunidades inéditas para la medicina preventiva.
Según el AI Index 2025 de Stanford, la formación en IA entre profesionales de la salud mental está aumentando, y en muchos casos los sistemas funcionan como “asistentes” para registrar patrones de comportamiento o hacer seguimiento entre sesiones. Sin embargo, los mismos investigadores subrayan que los algoritmos no comprenden emociones, contextos ni contradicciones humanas.
Los expertos insisten en que pueden existir riesgos si no hay supervisión profesional: en una terapia, el vínculo con el otro es lo que sana. Es un proceso de espejo y confrontación que una máquina no puede sostener, enfatiza Daniel Pinto. “La IA puede complementar, pero nunca reemplazar la presencia humana. Puede ser un aliado en salud mental, siempre que recordemos que su papel no es curar, sino acompañar