Publicidad
Los chatbots: ¿acompañamiento o sustituto emocional? Digital Crédito: Cedida.

Los chatbots: ¿acompañamiento o sustituto emocional?

Publicidad

Estudios internacionales ya han comenzado a observar este comportamiento, pero advierten que si bien los chatbots pueden ofrecer cierto alivio momentáneo, no están diseñados ni preparados para contener salud mental de forma responsable.


¿Podría una inteligencia artificial reemplazar una conversación humana significativa? Aunque la respuesta parece obvia, una de cada cuatro personas en Chile estaría dispuesta a hablar con una IA para no sentirse sola. Esta cifra, que reveló la última encuesta de Cadem, refleja una transformación silenciosa pero creciente: la integración emocional de los chatbots en la vida cotidiana.

Si bien estas herramientas nacieron como asistentes virtuales para facilitar tareas, responder preguntas o automatizar procesos, hoy la línea entre lo funcional y lo afectivo comienza a desdibujarse. La irrupción de plataformas como ChatGPT, Gemini o Claude ha generado un tipo de relación con la tecnología que va más allá de lo práctico: una interacción emocional, aunque simulada, que algunos usuarios interpretan como contención o incluso compañía.

Rodrigo Montenegro, experto en inteligencia artificial y líder del área en la empresa TSOFT Global, advierte que “aunque los chatbots con IA, como ChatGPT o Gemini, pueden imitar conversaciones humanas de manera sorprendente, no tienen emociones reales ni empatía verdadera”. 

El ejecutivo detalla que “la IA no siente empatía de verdad, pero es muy buena para imitarla, porque aprende a reconocer cómo nos sentimos y a responder de una forma que nos hace sentir comprendidos”. Este avance, sumado a la capacidad de generar voces naturales y expresiones emocionales simuladas, puede llevar a que muchas personas establezcan vínculos que “se sienten reales”, aunque en el fondo sepamos que son artificiales”, añade.

Chatbots como terapeutas

La pandemia, el aislamiento social y el acceso cada vez más sencillo a herramientas de IA han generado un nuevo fenómeno: personas que recurren a chatbots no solo para conversar, sino también para desahogarse emocionalmente, compartir sus problemas o recibir una suerte de orientación.

Estudios internacionales ya han comenzado a observar este comportamiento. Un artículo publicado por Scientific American en 2023 advierte que si bien los chatbots pueden ofrecer cierto alivio momentáneo, no están diseñados ni preparados para contener salud mental de forma responsable.

Desde TSOFT Global coinciden en que la clave está en el uso consciente de estas herramientas. “Un chatbot es ideal para resolver lo rápido y repetitivo, disponible a cualquier hora, pero no puede reemplazar una conversación profunda entre personas. La idea es que la IA se encargue de lo fácil, y el humano, de lo importante”, puntualiza Montenegro.

Otro de los peligros es la desinformación o el sesgo algorítmico, especialmente si las personas comienzan a usar estos sistemas como fuentes únicas de consejo o “terapia”. Por muy avanzados que sean los modelos, las respuestas siempre se basan en patrones aprendidos, no en criterios clínicos o éticos desarrollados por profesionales de la salud.

Crédito: El Mostrador.

Más oportunidades, más responsabilidad

A pesar de los riesgos, los especialistas no demonizan la inteligencia artificial. Al contrario, reconocen sus beneficios en ámbitos como la educación, el trabajo, la atención al cliente y la asistencia a personas mayores o con dificultades de comunicación.

Pero advierten que, como toda herramienta poderosa, su impacto dependerá del marco ético y humano que la acompañe. “Necesitamos el contacto real con otros. Es algo biológico que ninguna máquina puede darnos, por muy bien que logre imitar el comportamiento humano”, concluye Montenegro.

Publicidad