
Regular el uso de la inteligencia artificial, más allá del enfoque de riesgos
En vez de copiar modelos que ya muestran signos de rigidez, podemos construir una regulación con una mirada propia, que proteja derechos fundamentales y a la vez potencie la innovación. La clave está en pasar de clasificar riesgos a gestionar usos.
El proyecto de ley que busca regular la inteligencia artificial (IA) en Chile ha seguido un camino complejo. Tras más de un año de debate, hoy acumula más de 95 nuevas indicaciones en el Congreso, provenientes tanto del Ejecutivo como de parlamentarios de distintos sectores. Esto refleja la magnitud del desafío: legislar en un terreno de acelerada evolución, donde las definiciones importan tanto como la flexibilidad del marco institucional que las contenga.
En Chile estamos discutiendo uno de los proyectos más importantes para nuestra institucionalidad digital: la ley que regulará el uso de la IA. Como en otros países, la tentación inmediata ha sido seguir el modelo europeo y organizar la regulación en torno a enfoque y categorías de riesgos. Sin embargo, anclar todo el diseño normativo en esa lógica es un error que puede hipotecar tanto el avance de la innovación como la propia protección efectiva de derechos.
Lo primero que se debe despejar y quedar debidamente explicitado en el texto de la ley es que lo que corresponde regular no es la tecnología, sino sus usos y en contextos concretos. La inteligencia artificial, como cualquier herramienta, es neutra, puede servir para la prevención del delito, mejorar la salud, optimizar la agricultura o fortalecer la educación, pero también puede vulnerar derechos si se aplica sin resguardos.
La UE ha sido pionera en la regulación digital (GDPR, Digital Services Act, Digital Markets Act, AI Act). Sin embargo, este enfoque de hiperregulación temprana, más que generar un ambiente desatado de innovaciones, ha generado un efecto inhibidor. Hay que aprender de Europa y la preocupación de evitar abusos, prevenir discriminaciones y proteger derechos, pero que eso no implique generar un ecosistema más preocupado de fijar limitaciones que de crear un ambiente dinámico y flexible.
La velocidad de la innovación hace que lo que hoy se clasifica como riesgoso mañana sea cotidiano, y lo que se consideraba seguro adquiera connotaciones críticas. En ese contexto, marcos regulatorios demasiado rígidos quedan obsoletos antes de entrar en vigor.
Hoy, por ejemplo, varias aplicaciones de IA que se usan en Chile no están disponibles en Europa. Así, Apple Intelligence –la nueva suite de herramientas de IA de Apple–, que en muchos países ya ofrece funciones como Genmoji, Visual Intelligence, Phone Mirroring, SharePlay, herramientas para resumir correos y mensajes, integración con ChatGPT en Siri, entre otras, no están disponibles para los usuarios de la Unión Europea.
Este contraste palpable muestra cómo un enfoque rígido basado en categorías de riesgo puede terminar limitando innovaciones útiles, aunque con una política flexible y supervisada podría adaptarse mejor a cada contexto regulatorio.
El problema central es que el enfoque basado en riesgos no es una categoría fija ni objetiva, sino un continuo que depende del contexto de uso. Una misma tecnología puede ser considerada de bajo riesgo en un entorno y de altísimo riesgo en otro, generando problemas interpretativos y de certeza jurídica, pues lo que hoy se entiende como riesgo puede mutar mañana con nuevas aplicaciones o usos.
Lo riesgoso no es una condición estática. El mismo modelo de IA puede ser considerado de “bajo riesgo” en cierto contexto, por ejemplo, un chatbot educativo en una escuela, y de “alto riesgo” en otro, un chatbot médico que da consejos para cirugías al corazón. Pensemos en el reconocimiento facial: puede servir para ordenar un álbum de fotos familiares, para autenticar la identidad antes de entrar a un estadio para un partido de fútbol, pero también puede transformarse en una amenaza a las libertades civiles si se aplica masivamente en el espacio público sin salvaguardas en materia de seguridad pública.
¿Cómo regula esto una ley rígida que clasifica ex ante? La respuesta es que no puede, y en esa brecha se abren espacios de incertidumbre, arbitrariedad y captura regulatoria.
Además, la velocidad de la innovación digital hace imposible fijar umbrales permanentes. Lo que hoy se percibe como riesgoso mañana puede volverse cotidiano, y lo que consideramos seguro puede adquirir connotaciones críticas. Una regulación basada en categorías estáticas corre el riesgo de quedar obsoleta antes incluso de entrar en vigencia, generando costos de cumplimiento innecesarios, especialmente para el ecosistema de emprendimiento tecnológico.
Por otra parte, un enfoque anclado en riesgos puede distorsionar los incentivos. Algunas compañías podrían abstenerse de innovar por temor a quedar atrapadas en una categoría de “alto riesgo”, mientras otras podrían minimizar o disimular el alcance de sus tecnologías para eludir exigencias. En ambos casos, el resultado es contraproducente: se frena el desarrollo responsable sin garantizar mayor seguridad para las personas.
Lo que necesitamos no es un listado cerrado de riesgos, sino un marco basado en principios transversales: legitimidad, transparencia algorítmica, gobernanza de datos y tecnológica, proporcionalidad, explicabilidad, trazabilidad, no discriminación y responsabilidad. A eso debe sumarse una institucionalidad regulatoria liviana y flexible, con ambientes controlados aislados para la experimentación, capaz de actualizar criterios y acompañar la dinámica de la evolución tecnológica con guías apropiadas, supervisión adaptativa y mecanismos de mitigación que se ajusten al contexto de cada aplicación.
Chile tiene la oportunidad de no caer en la trampa del espejismo del riesgo. En vez de copiar modelos que ya muestran signos de rigidez, podemos construir una regulación con una mirada propia, que proteja derechos fundamentales y a la vez potencie la innovación. La clave está en pasar de clasificar riesgos a gestionar usos. Porque lo verdaderamente importante no es la tecnología en sí, sino cómo, para qué y en beneficio de quién se utiliza.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.