
Un agente «secreto» que opera sin licencia en el Estado de Chile
Regular no es frenar, sino garantizar que la inteligencia artificial potencie al Estado, sin reemplazar su alma.
James Bond tenía licencia para matar… ChatGPT no tiene ninguna, y sin embargo redacta resoluciones administrativas, discursos ministeriales, beneficios sociales y más de algún esbozo de política pública. Ya opera en oficinas del Estado chileno, sin norma, sin contrato y sin control. Invisiblemente.
El problema ya no es tecnológico, es institucional, porque hoy la inteligencia artificial actúa y decide dentro del aparato estatal, sin trazabilidad, sin fiscalización, y sin que los ciudadanos puedan saberlo ni impugnarlo.
Para mayor claridad, ejemplifico: en 2022 interpuse un recurso de protección en representación de vecinos del sector Bilbao-Seminario, en Providencia, luego de que la Secretaría Regional Ministerial (SEREMI) de Transportes eximiera al proyecto «Auto McDonald’s Bilbao-Parque Bustamante» de realizar un estudio de impacto vial. La resolución, según reconoció la propia autoridad, fue dictada por un algoritmo decisional que categorizó automáticamente el proyecto como «exento», sin que mediara análisis humano. Literalmente: “El sistema categoriza automáticamente el proyecto, sin intervención humana”.
El recurso fue declarado inadmisible, pero no por falta de mérito, sino porque la institucionalidad simplemente no contempla cómo impugnar o conocer el proceso de decisiones públicas adoptadas por un programa (software). El algoritmo decide; el Estado no responde.
Y si eso ya es delicado, lo es aún más la opacidad institucional. No existe catastro oficial que indique qué servicios públicos (de un total de más de 350 reparticiones dependientes de la Administración Central del Estado) usan inteligencia artificial, en qué procesos ni bajo qué estándares. Pero todos lo saben: herramientas generativas están siendo utilizadas a diario por funcionarios, asesores ministeriales y equipos de comunicaciones. Todo, en nombre de la eficiencia y la rapidez… Chat GPT y compañía ya son, en la práctica, «el empleado ideal» de las instituciones públicas: trabaja sin descanso ni licencias médicas ni revisión humana ni sumarios, etc.
El problema no es solo administrativo e institucional, sino político. ¿Quién redacta y dirige comunicados oficiales, discursos, «posteos» institucionales? ¿Son los profesionales contratados o una aplicación que actúa sin autoría, valores éticos, idiosincrasia ni prioridades políticas explícitas? Cuando la comunicación del poder se automatiza, también se automatiza la responsabilidad. Y en democracia, eso es al menos discutible.
En este escenario, la nueva Ley 21.719 de Protección de Datos Personales, publicada en diciembre de 2024 y que entrará en vigencia en 2026, va a representar un avance significativo. Inspirada en el Reglamento General de Protección de Datos de la Comunidad Europea, esta norma prohibirá tomar decisiones basadas únicamente en tratamiento automatizado y que no contemplen afectación de derechos. Por sobre todo, obliga a informar, permitir revisión humana y explicar la lógica de la decisión.
Por otra parte, el proyecto de ley sobre inteligencia artificial, actualmente en primer trámite constitucional en la Comisión de Hacienda de la Cámara de Diputados, propone una buena arquitectura declarativa, aunque escasa operatividad; deja fuera el uso cotidiano de herramientas generativas en funciones administrativas, como redacción de resoluciones, oficios o comunicaciones institucionales, que hoy son automatizados, sin norma ni trazabilidad ni responsabilidad. La propuesta legislativa no obliga a registrar ni auditar estos sistemas cuando no se clasifican como «de alto riesgo», lo que perpetúa una opacidad estructural.
La creación de una Agencia de Supervisión de Inteligencia Artificial se menciona en el texto, pero sin atribuciones sustanciales ni claras. El país no necesita una comisión de buenas intenciones, sino una Agencia Nacional de Ética Digital, con dientes y garras; o sea, con potestades normativas, fiscalizadoras y sancionatorias. Solo así se podrán certificar sistemas, controlar su despliegue y corregir errores.
No estamos en presencia de una hipótesis futura. Es un problema actual. Un sistema mal entrenado podría negar o postergar automáticamente el pago de un subsidio habitacional, porque detectó como “anómalo” un apellido extranjero, un ingreso informal mal registrado o una dirección en una zona marginal. ¿Quién revisa? ¿Quién asume las consecuencias? ¿Cómo se compensa?
Regular no es frenar, sino garantizar que la inteligencia artificial potencie al Estado, sin reemplazar su alma. Porque una cosa es producir algoritmos; otra muy distinta es permitir que gobiernen sin haber sido elegidos y operativizados para incorporar derechos.
Sin estas consideraciones, se abdica de la soberanía democrática, no solo respecto de las grandes discusiones políticas, sino desde la interacción concreta entre Estado y ciudadanos comunes y corrientes.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.