Opinión
Inteligencia artificial en Chile: regular sin estrategia
Hay que incentivar la construcción capacidad soberana en IA. Sin ese componente económico-político, la promoción de la innovación queda reducida a una declaración de buenas intenciones. Por ahora, ese horizonte estratégico no aparece en el proyecto chileno.
Si existe un punto de partida relativamente compartido en la discusión contemporánea sobre inteligencia artificial, es que su desarrollo constituye una cuestión estratégica. No se trata de una tecnología más ni de una simple herramienta de eficiencia administrativa o empresarial. La IA se ha convertido en una infraestructura de poder económico, científico, militar, educacional y estatal.
Por eso, si un país decide regularla, la pregunta inicial no debiera ser solo qué riesgos potenciales debe reducir o controlar, sino también cómo, mediante qué medidas concretas, va a incentivar y promover su desarrollo. Más aún, debe preguntarse qué tipo de inteligencia artificial quiere desarrollar: una IA meramente importada y aplicada pasivamente, o una IA con capacidades nacionales, orientada a sectores estratégicos; una IA soberana, respetuosa de los derechos fundamentales y capaz de contribuir efectivamente al desarrollo científico, productivo e institucional del país.
Desde esa perspectiva, el proyecto de ley sobre inteligencia artificial que actualmente se tramita en el Congreso chileno, segundo trámite constitucional -Senado- presenta una tensión de fondo.
En su artículo 1 declara que la ley tiene por objeto regular los usos de los sistemas de IA, promover su creación, desarrollo, innovación e implementación, y proporcionar un marco normativo para un desarrollo sostenible y ético, respetuoso de los principios democráticos y del Estado de Derecho. Asimismo, afirma que el Estado promoverá el uso, desarrollo e infraestructura necesaria de la IA, con respeto de los derechos fundamentales y la igualdad de derechos. El problema es que esa declaración programática no parece encontrar un correlato institucional suficientemente robusto en el resto del texto.
En efecto, cuando el proyecto pasa de los principios a las medidas concretas, el eje promocional se reduce considerablemente. El Título V, denominado “Medidas de apoyo a la innovación”, contempla básicamente dos instrumentos. Primero, los espacios controlados de pruebas —sandbox—, respecto de los cuales el artículo 12 establece que los operadores responderán por los daños causados, pero podrán quedar exentos de multas administrativas si respetan la ley y las orientaciones de los órganos públicos que habiliten esos espacios. Segundo, el artículo 13 cuando dispone que las empresas de menor tamaño tendrán acceso prioritario a dichos espacios, sujeto a disponibilidad presupuestaria, y que se promoverán actividades de sensibilización y capacitación digital avanzada.
La pregunta es inevitable: ¿es eso una verdadera política de innovación? La respuesta parece negativa. Un sandbox puede ser útil como instrumento experimental, pero no reemplaza una política nacional de desarrollo tecnológico. Una eventual rebaja o exclusión de sanciones tampoco constituye, por sí sola, un incentivo económico significativo. Menos aún cuando se compara con el régimen sancionatorio previsto en el propio proyecto: multas de hasta 5.000 UTM para infracciones leves, hasta 10.000 UTM para infracciones graves y hasta 20.000 UTM para infracciones gravísimas. En ese cuadro, para una startup, una universidad, un laboratorio emergente o una empresa tecnológica de menor tamaño, el mensaje regulatorio puede ser más disuasivo que promotor.
El apoyo a la innovación no es un misterio ni una fórmula retórica. En materia tecnológica, incentivar significa crear condiciones económicas reales para que más agentes estén dispuestos a invertir, experimentar y asumir riesgos. La innovación no surge solo porque una ley declare que la promueve; requiere capital, infraestructura, talento, acceso a datos, programas públicos, compras estatales inteligentes y mecanismos que reduzcan el costo de entrada para nuevos actores.
Por eso, si la IA es efectivamente estratégica para el desarrollo nacional, el proyecto debiera contemplar instrumentos concretos de fomento. A lo menos, debería incluir algún tipo de incentivo tributario para empresas, universidades, centros tecnológicos y startups que desarrollen, entrenen, implementen o auditen sistemas de IA en Chile, especialmente cuando esos proyectos se orienten a sectores de interés público, productividad nacional, salud, educación, justicia, administración pública, ciberseguridad o desarrollo científico.
Esto no significa negar la necesidad de regulación. La IA plantea problemas reales: opacidad, sesgos, daños algorítmicos, responsabilidad distribuida, afectación de derechos fundamentales y dificultades probatorias. La autonomía funcional de los sistemas de IA y su carácter de caja negra erosionan los presupuestos clásicos de imputación, causalidad y culpa, desplazando la discusión hacia modelos de responsabilidad por riesgo o imputación funcional. Regular, entonces, es necesario. Pero regular bien exige distinguir entre una política de control y una política de desarrollo.
La comparación internacional refuerza esta preocupación. La Unión Europea habiendo optado, en principio, por una regulación pesada, basada en categorías de riesgo; regulación que, precisamente por su complejidad y por los costos de cumplimiento que impone a desarrolladores y empresas, ha debido someterla a un proceso de revisión, ralentización y propuestas de aligeramiento, ante el temor de que produzca efectos anticompetitivos en el escenario tecnológico mundial.
Ese modelo europeo original podía resultar especialmente burocrático frente a sistemas generalistas capaces de servir, según el contexto, para usos de bajo, alto o incluso inaceptable riesgo. Sin embargo, incluso dentro de esa arquitectura regulatoria pesada, la Unión Europea siempre contempló medidas reales de apoyo a la innovación y al desarrollo de capacidades propias en inteligencia artificial.
Esa orientación se ha reforzado con el AI Continent Action Plan y la iniciativa InvestAI, mediante la cual la Comisión Europea busca movilizar alrededor de 200.000 millones de euros para inversión en IA, incluyendo 20.000 millones de euros destinados a financiar hasta cinco AI gigafactories y una red de fábricas de IA orientadas a apoyar a startups, industria e investigación.
Estados Unidos ofrece un contraste distinto. En materia regulatoria. En efecto, no existe una ley federal general equivalente al AI Act, pero sí una política tecnológica explícitamente orientada a competir. Su enfoque reciente se estructura en torno a acelerar la innovación, construir infraestructura de IA y liderar la diplomacia y seguridad internacional en la materia. Además, en el ámbito militar y público, se han impulsado programas y acuerdos con grandes empresas tecnológicas para incorporar IA en sistemas estratégicos. La tendencia hacia la inversión en IA para uso militar comenzó con John S. Mc Cain National en la Defense Authorization Act for Fiscal Year 2019 y se ha mantenido hasta la fecha con la dictación varias otras leyes federales.
China, por su parte, ha movilizado su aparato estatal para disputar liderazgo tecnológico, con planes nacionales orientados a convertir al país en líder mundial en áreas de IA.
La diferencia es evidente: las grandes potencias regulan más o regulan menos, pero todas entienden que la IA es una cuestión de poder nacional. Por eso la promueven con inversión, infraestructura, compras públicas, formación de talento, acceso a datos, centros de cómputo, alianzas público-privadas y estrategia industrial. Chile, en cambio, parece avanzar hacia una regulación que declara la importancia de la innovación, pero no la convierte en eje real del proyecto.
La pregunta decisiva es, entonces, cuál es el verdadero incentivo para innovar bajo este esquema. Frente a multas que pueden alcanzar hasta 20.000 UTM, el proyecto ofrece como contrapartida básicamente la posibilidad de acceder a espacios controlados de prueba y, eventualmente, evitar sanciones administrativas si se cumplen determinadas condiciones. Pero correr riesgos tecnológicos no se incentiva únicamente reduciendo castigos; se incentiva creando oportunidades económicas. Si el Estado considera que la IA es estratégica, debe compartir parte del riesgo inicial de su desarrollo. Y ello supone recursos: incentivos tributarios, financiamiento público, infraestructura común, programas de investigación aplicada y apoyo directo a empresas de menor tamaño.
Antes de discutir interminablemente sobre categorías de riesgo, gobernanza, sanciones o responsabilidad, Chile debiera responder dos preguntas previas. Primera: ¿es imprescindible la IA para el desarrollo y proyección del país? La respuesta debiera ser afirmativa, siempre bajo pleno respeto de los derechos humanos. Segunda: ¿necesita Chile algún nivel de IA soberana para mantenerse en sintonía con el desarrollo tecnológico regional y mundial? También parece que sí.
Frente a respuestas son afirmativas, entonces el proyecto debiera reorganizarse desde otra premisa: la de promover decididamente el desarrollo de la IA y sus usos socialmente valiosos, con pleno respeto de los derechos fundamentales. No basta con regular el riesgo. Hay que incentivar la construcción capacidad soberana en IA. Sin ese componente económico-político, la promoción de la innovación queda reducida a una declaración de buenas intenciones. Por ahora, ese horizonte estratégico no aparece en el proyecto chileno.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Inscríbete en el Newsletter +Política de El Mostrador, súmate a nuestra comunidad para informado/a con noticias precisas, seguimiento detallado de políticas públicas y entrevistas con personajes que influyen.