
Chips, datos y poder: la geopolítica de la inteligencia artificial
Mientras Washington, Bruselas y Beijing avanzan en direcciones opuestas, la inteligencia artificial se convierte en el motor de una nueva Guerra Fría, no con misiles ni tanques, sino con chips, centros de datos y líneas de código.
En pleno 2025, resulta cada vez más evidente que la inteligencia artificial (IA) ya no es solo una herramienta tecnológica, sino también un factor de poder comparable al petróleo en el siglo XX o a la energía nuclear durante la Guerra Fría. La diferencia es que, esta vez, los protagonistas no son únicamente los Estados, sino también las grandes corporaciones tecnológicas que, con sus inversiones colosales, marcan el rumbo de la geopolítica global.
En conjunto, Google, Microsoft, Amazon y Meta destinarán este año más de US$300 mil millones a infraestructura para IA. Solo Google elevó su gasto de capital a US$85 mil millones en 2025, mientras que Microsoft se acercará a los US$80 mil millones. Mientras, Amazon superará los US$100 mil millones, con proyectos de expansión como los US$20 mil millones invertidos en Pensilvania, y Meta anunció un rango de US$66 mil a US$72 mil millones para este mismo año.
Estas cifras descomunales muestran que los algoritmos se han convertido en un insumo estratégico y que la capacidad de almacenarlos y entrenarlos es la nueva medida del poder.
Europa intenta no quedarse atrás. En febrero de 2025, durante la cumbre de París, la presidenta de la Comisión Europea, Ursula von der Leyen, lanzó el programa InvestAI, destinado a movilizar hasta 200 mil millones de euros en inversiones para garantizar la autonomía digital del bloque.
En paralelo, el AI Act –el primer marco normativo europeo completo sobre inteligencia artificial– entró en vigor el 1 de agosto de 2024. Este régimen, inspirado en un enfoque basado en el riesgo, prohíbe determinados usos peligrosos de la IA (como técnicas subliminales manipulativas) y establece obligaciones graduadas según el tipo de sistema. Desde el 2 de febrero de este año empezaron a aplicarse las prohibiciones y algunas normas de alfabetización digital, y desde el 2 de agosto comenzaron a entrar en vigor las primeras obligaciones para los modelos generativos de propósito general (GPAI): transparencia, documentación técnica y cumplimiento del derecho de autor.
Sin embargo, la Comisión Europea –a través de la Oficina Europea de IA– solo podrá imponer sanciones a partir del 2 de agosto de 2026, pues los modelos ya presentes en el mercado antes de agosto de 2025 tienen hasta el 2 de agosto de 2027 para cumplir completamente con las nuevas exigencias.
Mientras tanto, Estados Unidos ha colocado la IA en el corazón de su estrategia de seguridad nacional. El Pentágono solicitó alrededor de US$1.800 millones en su presupuesto fiscal 2025 para programas específicos de inteligencia artificial. Además, el pasado 17 de junio, OpenAI recibió un contrato de hasta US$200 millones del Chief Digital and Artificial Intelligence Office, y en julio compañías como Anthropic, Google y xAI fueron adjudicatarias de convenios similares.
En paralelo, el 8 de mayo, Sam Altman, director ejecutivo de OpenAI, junto a Lisa Su (AMD) y Brad Smith (Microsoft), comparecieron ante el Senado para advertir que las restricciones a la exportación de chips pueden erosionar el liderazgo estadounidense frente a China.
En Beijing, la ambición no se disimula. Desde que en 2017 el Consejo de Estado fijó la meta de liderar la IA para 2030, los avances han sido consistentes. En enero de este año, el modelo DeepSeek sorprendió a los mercados con su eficiencia y bajo costo, y en agosto se lanzó DeepSeek-V3.1.
Alibaba, por su parte, presentó nuevas versiones de su familia Qwen, incluida Qwen3-Coder, en julio. Un estudio del Australian Strategic Policy Institute de agosto de 2024 concluyó que China domina en 57 de 64 tecnologías de frontera, un dato que confirma su acelerado posicionamiento.
Pero la inteligencia artificial no es solo infraestructura o comercio: también está modificando la guerra. En Gaza, investigaciones de medios israelíes y británicos confirmaron que las Fuerzas de Defensa de Israel emplearon sistemas como “Lavender” y “The Gospel” para seleccionar cientos de objetivos en cuestión de días, un salto que plantea serios dilemas éticos sobre el papel de una máquina en la decisión letal.
En Ucrania, “think tanks” como el CSIS documentaron el despliegue de drones autónomos potenciados por IA, capaces de identificar y atacar blancos de manera más veloz y precisa que un operador humano. La guerra, así, se convierte en un laboratorio de algoritmos.
El trasfondo es claro: el mundo avanza hacia una fragmentación digital. Un bloque liderado por Estados Unidos y sus aliados promueve una IA bajo principios democráticos y regulaciones estrictas, mientras que China ofrece soluciones más baratas y sin condicionamientos políticos, con ecosistemas tecnológicos orientados al control social. Entre ambos polos, países intermedios intentan no quedar rezagados, conscientes de que su inserción en la cadena de valor de la IA puede determinar su lugar en el nuevo orden internacional.
La conclusión es ineludible. Los algoritmos no son neutrales: responden a intereses, valores y estrategias de poder. Y mientras Washington, Bruselas y Beijing avanzan en direcciones opuestas, la inteligencia artificial se convierte en el motor de una nueva Guerra Fría, no con misiles ni tanques, sino con chips, centros de datos y líneas de código.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.