Publicidad
Uso de chatbots en menores: alertan por impactos en privacidad y salud emocional Niñez Crédito: El Mostrador.

Uso de chatbots en menores: alertan por impactos en privacidad y salud emocional

Publicidad

Especialistas advierten sobre impactos en la privacidad, la salud emocional y el acceso a contenidos inapropiados ante el uso creciente de chatbots de IA por parte de menores.


El uso de chatbots de inteligencia artificial se ha expandido con rapidez en los últimos años y también ha alcanzado a niños, niñas y adolescentes. Herramientas como ChatGPT concentran cientos de millones de usuarios activos semanales a nivel global, muchos de ellos jóvenes. Un estudio británico de julio de 2025 indicó que el 64% de los niños utiliza este tipo de plataformas.

El fenómeno ha abierto un debate sobre los efectos que estos sistemas pueden tener en el desarrollo emocional, la seguridad y la privacidad de los menores.

Desde la empresa de ciberseguridad ESET advierten que el uso frecuente de chatbots por parte de menores plantea desafíos que requieren supervisión adulta.

Martina López, Investigadora de Seguridad Informática de ESET Latinoamérica, advierte que “están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes”.

Los especialistas señalan que muchos menores utilizan la inteligencia artificial generativa como apoyo escolar, pero también como espacio de consulta personal o incluso compañía digital. En este último caso, advierten riesgos psicológicos y sociales.

Los chatbots están diseñados para ofrecer respuestas empáticas y adaptadas al usuario. Esto podría reforzar creencias erróneas o amplificar problemáticas personales en niños y adolescentes que atraviesan etapas de especial vulnerabilidad emocional. También puede afectar la interacción social presencial y el tiempo destinado a actividades escolares o familiares.

Acceso a contenidos y desinformación

Otro foco de preocupación es la posibilidad de que los menores accedan a contenidos inapropiados. Aunque las plataformas incorporan filtros y mecanismos de moderación, estos no siempre resultan efectivos.

En algunos casos, usuarios con mayor conocimiento técnico pueden intentar eludir las restricciones internas mediante instrucciones específicas. A ello se suma el riesgo de desinformación: respuestas incorrectas, pero formuladas con apariencia de certeza, pueden influir en decisiones relacionadas con salud o relaciones personales.

Por otro lado, el almacenamiento de información también es un aspecto crítico. Si un menor comparte datos personales o financieros en una conversación, estos pueden quedar registrados en los sistemas del proveedor. En caso de vulneraciones de seguridad, podrían ser accedidos por terceros.

Además, dependiendo del país o de la plataforma utilizada, los mecanismos de verificación de edad pueden ser limitados, lo que incrementa la responsabilidad de madres, padres y cuidadores.

Crédito: El Mostrador.

Señales de alerta en el uso de IA

ESET identifica algunas conductas que podrían indicar una relación poco saludable con los chatbots:

  • Aislamiento de actividades sociales o familiares

  • Ansiedad ante la imposibilidad de acceder a la herramienta

  • Referirse al chatbot como si fuera una persona real

  • Repetir información incorrecta como si fuera un hecho comprobado

  • Consultar reiteradamente sobre enfermedades graves

  • Acceder a contenidos inapropiados sugeridos por la IA

“En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados, consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, comenta Luis Lubeck, vocero de Argentina Cibersegura.

Supervisión y acompañamiento

Los expertos coinciden en que la clave está en el acompañamiento activo. Promover el pensamiento crítico, explicar que los chatbots no son personas reales y reforzar el diálogo abierto son medidas centrales.

“Los más pequeños necesitan seres humanos en el centro de su mundo emocional. La IA puede ser una herramienta útil para muchas cosas. Pero hasta que los niños desarrollen una relación sana con ella, su uso debe supervisarse cuidadosamente. Y nunca debe sustituir al contacto humano”, concluye López.

Publicidad