Publicidad
Auctoritas en código: cómo la inteligencia artificial puede redefinir la verdad Opinión

Auctoritas en código: cómo la inteligencia artificial puede redefinir la verdad

Publicidad
Loris De Nardi
Por : Loris De Nardi Académico Investigador Escuela de Derecho Universidad de Las Américas
Ver Más

Así, la IA no ha introducido una nueva lógica de poder: simplemente ha rediseñado la manera en que la auctoritas se ejerce y se acepta.


El éxito reciente de la inteligencia artificial no se explica solo por su eficacia o utilidad práctica, sino por la autoridad que proyecta sobre aquello que “afirma”, presentado al usuario como verdad. Dicho en otros términos, su poder se funda en el reconocimiento social de una supuesta superioridad de juicio y conocimiento. 

Ahora bien, lo que ocurre con la IA dista de ser novedoso. Repite dinámicas antiguas. En LA Antigua Roma, la auctoritas no obligaba jurídicamente, pero era más eficaz que cualquier mandato formal: legitimaba y confería credibilidad a las decisiones. El imperium movía legiones; la auctoritas, en cambio, generaba convicciones. Con frecuencia, aquellas convicciones terminaron necesitando de las legiones para imponerse, por lo que puede decirse que el imperium —el poder de mandar, obligar y castigar— estaba al servicio de la auctoritas, entendida como legitimación social reconocida, fruto del saber y atribuida a determinados ciudadanos.

Para entender mejor cómo se ejerce y se reconoce la auctoritas, podemos mirar a la Inquisición.

Durante la Edad Media y Moderna, este tribunal tenía como misión custodiar la ortodoxia: garantizar que la enseñanza de Cristo se transmitiera correctamente y, que los fieles vivieran conforme a ella, asegurando así su salvación. Esta tarea tenía un doble carácter: eclesiástico, porque defendía la doctrina y la fe; y secular, porque se creía que sin la correcta práctica religiosa no podía subsistir el orden social. Por ello, recientes investigaciones tienden a subrayar el carácter más bien político secular de esta institución. 

Su poder no residía solamente en el temor, ni en los autos de fe, ni en las ejecuciones —mucho menos frecuentes de lo que se suele creer—, sino en su capacidad de determinar qué debía considerarse verdadero y justo. Esta facultad, sostenida únicamente por la auctoritas que la sociedad le reconocía, le permitió no solo proteger la ortodoxia, sino también moldear y consolidar la visión del mundo al definir los límites de lo que podía decirse y reconocerse como verdad. Por ello, y esto es crucial, su declive se produjo únicamente cuando el proceso de secularización desplazó la antigua noción de bien común, basada en la salvación del buen cristiano, por la de felicidad común, conducente a la idea contemporánea de “bienestar”, fundada en la prosperidad económica. Pues aquel cambio terminó por erosionar lentamente la auctoritas de la Inquisición, al revelar su impotencia para brindar respuestas o soluciones que se ajustaran a las exigencias de una sociedad en transformación

Mutatis mutandis, con la inteligencia artificial podríamos estar viviendo algo semejante.

La IA opera a través del lenguaje: toda verdad se construye y sostiene mediante palabras, conceptos y narrativas. Sus algoritmos, más allá de procesar información, imponen valores, categorías, sesgos y visiones del mundo de determinados grupos, disfrazados de códigos neutrales. En otras palabras, la IA está permitiendo a ciertos intereses “vender” su verdad y buena parte de la sociedad se la está “comprando”, debido a la creciente auctoritas que, muchas veces sin reflexión, se le reconoce. 

Si la Inquisición logró imponer su verdad mediante un lenguaje religioso y jurídico, hoy, quienes controlan la IA encuentran en los códigos de programación, una herramienta para imponer su visión del mundo y moldear percepciones sobre lo correcto, lo posible, lo legítimo, lo verdadero. Con la diferencia que si la censura de la Inquisición era explicita —“te prohíbo publicar o afirmar esto”—, la de la inteligencia artificial por el momento es implícita: al privilegiar lo viral, quienes alimentan los algoritmos deciden indirectamente qué contenidos se muestran y cuáles quedan invisibles.

Un análisis de la plataforma de Software Semrush, realizado en junio de 2025, basado en más de 150.000 citas, muestra que modelos de inteligencia artificial como ChatGPT, Perplexity o el “Modo IA” de Google dependen principalmente de fuentes abiertas: Reddit, Wikipedia, YouTube, Google y Yelp. Como consecuencia, estos sistemas amplifican lo popular y silencian contenidos especializados, académicos o minoritarios, simplemente porque no alcanzan a ser lo suficiente viral para aparecer. Vox populi, vox dei: lo viral funciona como un filtro implícito que determina qué información se percibe como relevante y, en última instancia, qué puede reconocerse como verdad.

Hasta ahora, dicha “censura” se está realizando, probablemente, de manera inconsciente. Sin embargo, el solo hecho que esto esté pasando demuestra de por sí que nada impediría que mañana los grandes grupos que controlan las IA puedan hacerlo de manera consciente, eligiendo directamente que fuentes no considerar, pues lo que ahora actúa como un filtro pasivo ya contiene, en su estructura, la posibilidad de transformarse en censura activa. 

Es evidente que lo que ha cambiado no es la lógica propia de la auctoritas, y por tanto del poder, y de su capacidad de definir la verdad, sino la manera en que esta prerrogativa se ejerce y se atribuye. Antes, la sociedad estaba sujeta a instituciones que usaban sermones, procesos, condenas o propaganda para construir una verdad capaz de moldear la mentalidad y, con ella, la visión del mundo. Hoy, todo ello se hace de manera más sutil, puesto que líneas de códigos deciden qué información se muestra, qué valores se refuerzan, qué sesgos se propagan y qué visiones se consolidan. La sociedad ya no es moldeada solo de manera activa sino que al interactuar con estos sistemas, sufre pasivamente su auctoritas y termina por adoptar una determinada verdad, definida según los parámetros que los códigos imponen.

Así, la IA no ha introducido una nueva lógica de poder: simplemente ha rediseñado la manera en que la auctoritas se ejerce y se acepta. Esto es especialmente crítico porque la inteligencia artificial es desarrollada por grandes corporaciones privadas, con escasa supervisión pública y con un rol del mundo académico marginal, o si se quiere, meramente ocasional. De modo que, consciente o inconscientemente, estas empresas y sus dueños nos imponen, sin posibilidad de discusión, su visión del mundo, sus categorías y valores.

Teniendo presente que la IA ha llegado para quedarse, rechazarla o demonizarla no es una respuesta viable, como lo ha sostenido “IA Veganism”, el movimiento que rechaza la IA bajo cualquiera forma y finalidad, por razones éticas y culturales. Lo que sí podemos hacer es comprender su funcionamiento y sus limitaciones y, aproximarnos a ella ejerciendo nuestro pensamiento crítico, de modo que se convierta en una herramienta poderosa para mejorar nuestro mundo, fortaleciendo su carácter plural y democrático, y favoreciendo el acceso al conocimiento. 

De lo contrario, seremos nosotros quienes terminemos convirtiéndonos en ciudadanos del suyo.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad