Publicidad
¿Usas ChatGPT en el trabajo? El uso sin control de IA en oficinas puede filtrar datos personales Digital Créditos: El Mostrador.

¿Usas ChatGPT en el trabajo? El uso sin control de IA en oficinas puede filtrar datos personales

Publicidad

El uso de herramientas de inteligencia artificial en el trabajo se ha masificado, pero su aplicación sin supervisión ni resguardos puede exponer información sensible y generar riesgos legales, de seguridad y reputacionales para empresas y trabajadores.


Sin duda la inteligencia artificial (IA) ha tomado un papel un fundamental en la vida de cientos personas. ¿Cuántas veces has recurrido a un asistente de IA en la oficina para agilizar una presentación o resumir un documento en solo minutos?. Sin embargo, sencilla e inofensiva solicitud a Chat GPT, Gemini, Deepseek o Copilot puede ser más riesgosa de lo que se piensa. 

El avance de la Inteligencia Artificial ha abierto un abanico de herramientas de libre acceso que permiten agilizar tareas que se realizaban de forma manual o repetitiva. “Sin embargo, las personas deben saber que este tipo de herramientas con Inteligencia Artificial generativa se nutren con la información que está de manera abierta de Internet y la que nosotros le entregamos, la que almacena para entrenarse en dar mejores respuestas”, explica Cristián Ojeda, gerente general de la consultora Nubatech.

Según el experto, el riesgo está y existe cuando se sube a la nube el contenido corporativo o de los clientes debido a que se puede estar exponiéndo información estratégica de la empresa y datos personales de terceros en plataformas que no tienen los perímetros de seguridad adecuados para evitar que estos datos sean explotados por ciberdelincuentes.

“Con la nueva Ley de Protección de Datos Personales, las empresas que manejan datos sensibles de sus colaboradores o clientes son las que deben
tener más resguardo sobre estos usos, que pueden parecer muy inocentes y que por desconocimiento de los empleados, pueden generar problemas de seguridad, legales y reputacionales graves”, advierte Ojeda.

Es fundamental tener claridad sobre qué datos e información le estamos entregando a un asistente de inteligencia artificial. Muchas veces no se sabe con certeza si se está interactuando con una IA, qué uso le da a los datos o cómo toma sus decisiones. Esta falta de transparencia puede generar desconfianza, provocar errores difíciles de corregir e incluso conducir a decisiones injustas sin derecho a réplica. 

Para evitarlo, el experto recomienda que la empresa tenga una gobernanza de los modelos de IA que se utilizan en el entorno laboral, ya sean propios o externos. “Esto quiere decir que sean conocidos y autorizados, lo que identifica el uso de aplicaciones externas no autorizadas y cualquier actividad sospechosa”, agrega.

Un estudio de Microsoft reveló que el 77% de las personas que utilizan IA generativa en el trabajo lo hace a través de herramientas que incorporan por cuenta propia. En muchos casos, esto ocurre sin supervisión del área de tecnología, incluso en organizaciones que ya cuentan con políticas sobre el uso de inteligencia artificial.

Asimismo, el experto advierte que el objetivo no es desincentivar la innovación y la eficiencia dentro de las empresas, sino que promoverlas de manera responsable, usando por un lado la capacitación continua sobre qué se puede y no se puede hacer y, por otro, implementando soluciones que aseguren el uso correcto de los modelos de IA y de los datos con que estos están siendo alimentados, para asegurar un cumplimiento normativo y los estándares de seguridad.

Publicidad