Publicidad
Nuestras guerras, sus algoritmos Opinión

Nuestras guerras, sus algoritmos

Publicidad
Joaquim Giannotti
Por : Joaquim Giannotti director del Núcleo de Ciencias Sociales y Artes U. Mayor.
Ver Más

Sin un marco humanitario internacional riguroso para las pruebas de armamento y el uso bélico de la IA, la “IA responsable” sigue siendo una fantasía de junta directiva.


Los gigantes tecnológicos y los organismos intergubernamentales hablan de una “IA responsable” con una insistencia notable. Leer las recomendaciones de la UNESCO sobre la materia es adentrarse en un mundo de elevados ideales seculares, pavimentado para una coexistencia armoniosa con la IA: un motor para el Bien que nos empodera sin traspasar los límites de la equidad.

Sin embargo, este optimismo tecnocrático está siendo desmantelado actualmente en el teatro de la guerra. La búsqueda de una IA “responsable” está siendo interrogada por el pragmatismo gélido del campo de batalla, donde los fundamentos filosóficos de la ética convergen con la demanda urgente de eficiencia letal.

Informes recientes sugieren que la realidad de la guerra moderna ya está siendo moldeada por herramientas de IA. La evidencia indica que tecnologías provenientes de laboratorios como Anthropic —a pesar de figurar en la lista negra del Pentágono— han sido utilizadas en procesos de selección de objetivos durante operaciones recientes en Teherán. La utilidad es innegable: bajo la abrumadora carga cognitiva del conflicto, un modelo puede sintetizar una cantidad inmensa de datos con una velocidad que hace que la intuición humana parezca una antigüedad. Pero, ¿es responsable tal uso?

La defensa estándar es la supervisión del “humano en el bucle” (human-in-the-loop). Se nos dice que aún no estamos en la era de Terminator; que una mano humana todavía planea sobre la tecla “enter”. No obstante, este es un consuelo frágil. Cuando una IA genera un resultado basado en puntos de datos que un ser humano no puede procesar, la persona en el bucle se convierte, a menudo, en un mero marcador de posición moral: un sello de goma en un proceso que ya la ha superado. Bajo la sombra de las operaciones en Irán o Venezuela, el bucle se asemeja menos a un mecanismo de seguridad y más a una forma de externalizar la moralidad de una decisión, manteniendo a un humano cerca solo para asumir la culpa si las cosas no funcionan.

Aún no hemos decidido qué principios hacen permisible el uso de una máquina para mediar el fin de una vida humana. Sin un marco humanitario internacional riguroso para las pruebas de armamento y el uso bélico de la IA, la “IA responsable” sigue siendo una fantasía de junta directiva. Nos desplazamos hacia un futuro donde la máquina decide, el humano acata y la ética se añade como una reflexión tardía en la letra pequeña.

 

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad