
Autodiagnóstico con IA: una moda peligrosa para la salud física y mental
El uso creciente de plataformas como ChatGPT para identificar enfermedades físicas o trastornos psicológicos puede generar diagnósticos erróneos, aumentar la ansiedad y postergar tratamientos necesarios.
Buscar respuestas rápidas a síntomas físicos o emocionales a través de la inteligencia artificial se ha convertido en una práctica común. Sin embargo, el uso de herramientas como ChatGPT o aplicaciones automatizadas para autodiagnosticarse puede traer consecuencias graves tanto para la salud física como mental.
“Las personas están consultando a la IA como si fuera un médico o un terapeuta, sin considerar que estas plataformas no tienen la capacidad de evaluar un caso clínico ni de contener emocionalmente a quien está sufriendo”, advierte Teresa Valle, psicóloga de Grupo Cetep, red de salud mental.
Uno de los principales riesgos que alertan los especialistas es el error en el diagnóstico. Las IAs están diseñadas para entregar respuestas basadas en patrones universales, no para interpretar el historial médico, el contexto emocional o las variables individuales de cada persona. “Un dolor abdominal puede ser desde estrés hasta una apendicitis. Solo un profesional, con exámenes y criterio clínico, puede identificar la causa real”, explica Teresa Valle.
Además, el acceso instantáneo a respuestas alarmistas puede aumentar la ansiedad y fomentar la llamada cibercondría, un trastorno donde las personas desarrollan angustia excesiva al buscar síntomas en internet. “Muchas veces se convencen de tener enfermedades graves, generando más miedo e incluso retrasando el tratamiento adecuado”, agrega.
El fenómeno en aumento: ¿por qué más personas recurren a la IA?
Desde la pandemia, el uso de herramientas digitales en salud se ha acelerado exponencialmente. La facilidad de acceso, la inmediatez y la creciente presencia de contenidos médicos en redes sociales han incentivado la práctica del autodiagnóstico digital, sobre todo entre jóvenes adultos.
Factores como la desconfianza en los sistemas de salud, las largas listas de espera y el costo de las consultas han impulsado la búsqueda de respuestas a través de plataformas como ChatGPT, Google o TikTok. Paralelamente, los avances en inteligencia artificial conversacional han generado una ilusión de “escucha” o empatía, aunque no exista un vínculo clínico real.
En salud mental, esta tendencia ha normalizado expresiones como “soy ansioso”, “tengo TDAH” o “sufro de apego evitativo”, muchas veces basadas en contenido no validado. Según expertos, esto puede conducir a etiquetas incorrectas, automedicación o decisiones que no responden a un diagnóstico formal.
Algunas personas están optando por hablar con chatbots en lugar de acudir a psicólogos o psiquiatras. “Esto puede reforzar el aislamiento social y postergar intervenciones terapéuticas necesarias. La IA no escucha activamente ni ofrece contención emocional real”, señala la profesional de Grupo Cetep.
La proliferación de contenido en redes sociales donde influencers o aplicaciones sugieren diagnósticos o tratamientos sin base profesional agrava el problema. “La salud, tanto física como mental, debe abordarse con responsabilidad, con acompañamiento humano y con una entrevista clínica, para que el profesional no solo aborde la sintomatología, sino también el estilo de vida, la forma de pensar, la forma que tienen los pacientes de hablar permite hacer un diagnóstico más completo y un mejor tratamiento”, enfatiza Valle.
Mhaite, IA con criterio clínico
En contraste con el uso desinformado de la IA, existen iniciativas tecnológicas responsables y efectivas como Mhaite, desarrollada por Grupo Cetep. Esta herramienta digital nace como respuesta a este desafío: una plataforma que conversa, evalúa y deriva, entregando información clave para tomar decisiones organizacionales basadas en evidencia, con foco en la prevención y acción oportuna.
“Mhaite demuestra que la IA puede integrarse al sistema de salud de manera ética y efectiva, optimizando recursos y activando redes clínicas reales desde el primer clic”, señala Teresa Valle. El sistema automatizado permite asignar orientación adecuada según el nivel de necesidad, distribuyendo eficazmente la carga de atención: evita el sobreuso de recursos clínicos en casos leves y prioriza a quienes más lo necesitan.