Publicidad
Uso masivo de IA en la región revela brechas críticas de seguridad y riesgo de desinformación Digital Créditos: El Mostrador.

Uso masivo de IA en la región revela brechas críticas de seguridad y riesgo de desinformación

Publicidad

Una encuesta regional de ESET revela que, pese al uso masivo de IA en la vida cotidiana, persisten graves brechas de seguridad: los usuarios no verifican la información, comparten datos sensibles y desconocen las políticas de privacidad, aumentando riesgos de fraude y desinformación.


La Inteligencia Artificial se ha vuelto parte habitual de la vida cotidiana en la región, ya sea como herramienta de consulta o apoyo para estudiar y trabajar. Sin embargo, su uso acelerado no siempre va acompañado de prácticas seguras. Así lo revela una encuesta regional de ESET Latinoamérica, realizada a más de mil usuarios de 17 países, entre ellos Chile, que analiza cómo se está utilizando la tecnología y qué brechas persisten en materia de seguridad digital.

El sondeo muestra una alta adopción: el 80% afirma usar IA (45% de manera frecuente y 35% ocasional). Pero el entusiasmo convive con riesgos claros. El 55% reconoce que no verifica siempre la información generada; un 14% nunca lo hace y un 39% solo a veces. Para los expertos, esta falta de chequeo abre la puerta a errores y desinformación.

“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (y más en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre es aconsejable contrastar la información obtenida con fuentes oficiales”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

La encuesta también expone otro frente de vulnerabilidad: el 40% reconoce haber compartido información personal o laboral con sistemas de IA, y casi el 60% no lee las políticas de privacidad. Según ESET, esta combinación puede resultar riesgosa, ya que muchos modelos almacenan y utilizan los datos ingresados para entrenamientos futuros, lo que podría exponer información sensible si no se toman medidas básicas de protección.

A esto se suma la posibilidad de ataques mediante prompt injection, técnica que permite manipular respuestas de la IA a través de comandos maliciosos. En manos de ciberdelincuentes, estos fallos pueden derivar en instrucciones erróneas o información falsa.

Entre las principales preocupaciones de los usuarios destacan los fraudes y estafas (65%), las deepfakes y fake news(47%), y la falta de privacidad y recopilación de datos (45%). Temores sustentados en la evidencia: según el MIT, las noticias falsas tienen un 70% más de probabilidad de ser compartidas que las reales, un terreno fértil para la desinformación y el phishing disfrazado de contenido legítimo.

“En relación con los fraudes y estafas, no es una novedad que el cibercrimen ha encontrado en la Inteligencia Artificial una herramienta más que lo potencia. De hecho, aumentó el número de correos de phishing, dado que la IA generativa elabora contenidos cada vez más convincentes para que las víctimas revelen información sensible u obtener algún rédito económico. Pero no es todo ya que las estafas por audio también se han perfeccionado, al punto que se necesitan tan solo unos pocos segundos de la voz de una persona para producir algo peligrosamente real”, agrega el investigador de ESET.

De cara al futuro, aunque el 80% de los encuestados ve con optimismo el avance de la IA, un 43% considera que su uso estará acompañado de riesgos. Por eso, desde ESET insisten en la importancia de comprender qué datos recopilan las herramientas, cómo se almacenan y si se comparten con terceros.

“El análisis de los resultados obtenidos en la encuesta permite confirmar que si bien hay una gran adopción respecto de la Inteligencia Artificial, aún queda mucho camino por recorrer en cuanto a los hábitos responsables y seguros de la misma. La falta de chequeo de la información, el poco cuidado al compartir datos sensibles y el desinterés en las políticas de privacidad son alarmas que deben ser escuchadas. La solución no está en temerle a la herramienta o dejar de usarla, sino en incorporar acciones concretas, para utilizarla de manera segura y crítica. En este escenario, entonces, el desafío es llevar a cabo un uso más consciente de la IA”, concluye Gutiérrez Amaya.

El diagnóstico es claro: no se trata de retroceder en la adopción de la tecnología, sino de avanzar en educación digital y en un uso más informado, crítico y responsable.

Publicidad