Publicidad
Salud mental e inteligencia artificial: la ilusión del bienestar automático Opinión imagen referencial

Salud mental e inteligencia artificial: la ilusión del bienestar automático

Publicidad
Rodolfo Bächler Silva
Por : Rodolfo Bächler Silva Doctor en Psicología y académico de la Escuela de Psicología de la Universidad Mayor
Ver Más

Creer que una aplicación puede reemplazar la contención que brinda otro ser humano puede llevar a una banalización del sufrimiento.


Vivimos un tiempo en que la inteligencia artificial (IA) parece capaz de todo. Desde recomendar qué película ver hasta resolver problemas complejos, sus avances generan asombro, esperanza… y también preocupación. 

El ámbito de la salud mental no ha quedado fuera de este fenómeno. ¿Puede una IA ayudar a que nos sintamos mejor? ¿Podría reemplazar, al menos en parte, a un terapeuta humano? ¿Dónde se ubica la frontera entre la asistencia tecnológica y el cuidado humano que requieren nuestras emociones? Reflexionar sobre estas cuestiones se vuelve especialmente urgente hoy, cuando tecnologías cada vez más avanzadas se ofrecen como asistentes, consejeras e incluso terapeutas virtuales.

Uno de los aportes más prometedores de la IA en salud mental es su capacidad para observar y registrar cambios emocionales a lo largo del tiempo. Aplicaciones que actúan como diarios digitales permiten al usuario describir cómo se sintió durante el día. A partir de esas entradas, algunos sistemas pueden detectar señales de alerta como una disminución sostenida del ánimo, aislamiento o uso frecuente de palabras asociadas al malestar (tristeza, vacío, culpa, etc.). Esta función puede resultar útil como mecanismo de monitoreo continuo, permitiendo una detección precoz de crisis o la identificación de patrones afectivos que, de otro modo, pasarían desapercibidos.

Asimismo, han surgido chatbots conversacionales especializados en temáticas de bienestar, como Woebot  (una app diseñada para ofrecer apoyo psicológico mediante conversaciones breves basadas en la terapia cognitivo conductual) y Wysa, que funciona como un “coach de bienestar emocional”. 

Diversos estudios han demostrado que este tipo de herramientas puede brindar apoyo psicológico leve, técnicas de autorregulación emocional y orientación en momentos de crisis no demasiado profundas. Usadas como intervenciones complementarias, especialmente en contextos no clínicos o de baja complejidad, estas apps logran efectos positivos en bienestar y percepción de autoeficacia.

Sin embargo, es importante reconocer lo que estas herramientas no pueden hacer. Un aspecto fundamental es que la IA no logra replicar (por ahora), la relación terapéutica que se establece entre un paciente y un terapeuta humano. 

Existen investigaciones que muestran que incluso cuando los chatbots son percibidos como empáticos, no logran sostener una alianza terapéutica profunda ni reproducir los procesos de co-construcción emocional característicos de una terapia humana. Las limitaciones del vínculo se vuelven especialmente evidentes en situaciones de mayor complejidad emocional, duelo, trauma o trastornos mentales severos.

En este sentido, el peligro no está en la tecnología en sí, sino en su uso fuera de contexto o como sustituto del cuidado profesional. Creer que una aplicación puede reemplazar la contención que brinda otro ser humano puede llevar a una banalización del sufrimiento. Las tecnologías de IA pueden colaborar, pero no deben asumir responsabilidades para las cuales no están diseñadas ni capacitadas.

Por eso, la pregunta que debemos hacernos no es solo “¿qué puede hacer la IA por nuestra salud mental?”, sino también “¿qué debe y qué no debe hacer?”. La IA puede acompañar, sugerir, alertar, organizar, pero no puede ni debe reemplazar la experiencia encarnada, empática y situada que requiere el cuidado emocional profundo. En momentos de crisis, lo que más necesitamos no es un algoritmo preciso, sino otro ser humano capaz de entender el mundo desde donde lo estamos viviendo.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad