Publicidad
La inteligencia artificial y el apagón del pensamiento crítico Opinión

La inteligencia artificial y el apagón del pensamiento crítico

Publicidad
Loris De Nardi
Por : Loris De Nardi Académico Investigador Escuela de Derecho Universidad de Las Américas
Ver Más

El Resumen IA de Google sin duda se presenta como una interfaz muy útil, pero tiene la gran desventaja de interrumpir el contacto con el conocimiento real y el pensamiento crítico.


En un reciente editorial de BBC Future, Thomas Germain advierte que la nueva herramienta de inteligencia artificial incorporada al buscador de Google —el llamado “Modo IA”— podría transformar radicalmente la forma en que accedemos a la información. Esta función, que ya comenzó a implementarse en Estados Unidos, sustituye los tradicionales listados de enlaces por un resumen automatizado generado por un chatbot, que responde directamente a las preguntas del usuario en la parte superior de la página de resultados. Es decir, en lugar de ofrecer múltiples fuentes, el sistema presenta una única respuesta, elaborada a partir de la información disponible en la web, pero sin mostrar necesariamente los matices, debates o contradicciones que existen entre las distintas voces.

El Modo IA va más allá de los conocidos “resúmenes IA” que Google comenzó a probar hace un año: no complementa la búsqueda, la reemplaza. Según la propia empresa, esta herramienta representa una “reinvención total de la búsqueda”, y se perfila como el modelo predeterminado en el futuro cercano. Los críticos, sin embargo, alertan que este giro podría tener consecuencias devastadoras: al reducir drásticamente la necesidad de hacer clic en los enlaces, se disminuye el tráfico a medios, blogs, plataformas especializadas y sitios independientes, amenazando su viabilidad económica y, con ella, la diversidad del ecosistema digital.

De modo que, este cambio no solo podría afectar a los creadores de contenido, y por ende la pluralidad de la información, debido a la disminución de clics y por lo tanto de los introitos publicitarios, sino también a la capacidad del público para acceder a una pluralidad de fuentes, contrastar opiniones y formarse un juicio propio. En palabras de la editora Gisele Navarro, citada por el mencionado editorial de la BBC, recurrir al Resumen IA de Google sería como pedirle a un bibliotecario que simplemente te hable del libro, sin tener que leerlo tú mismo. 

Es decir, el Resumen IA de Google sin duda se presenta como una interfaz muy útil, pero tiene la gran desventaja de interrumpir el contacto con el conocimiento real y el pensamiento crítico. Por lo que vale la pena preguntarse: ¿qué pasa cuando ese resumen automatizado de la IA perpetúa errores conceptuales o narrativas obsoletas?

Un ejemplo ilustrativo —aunque incómodo— es el uso persistente de la expresión “desastres naturales”.

Desde hace décadas, un sólido consenso académico ha demostrado que los desastres no son naturales. Son procesos sociales, históricos, materiales y simbólicos. Son el resultado de la interacción entre una amenaza —un terremoto, una lluvia intensa, un incendio— y una sociedad vulnerable, configurada por factores como la pobreza, la desigualdad, la falta de planificación o la exclusión territorial. Si quisiéramos ser más precisos —y sí, un poco sabelotodo— deberíamos definirlos como «procesos históricos, sociales, materiales y simbólicos que causan adversidades importantes, alteraciones de la vida cotidiana, pérdidas, disrupciones, desorden y estremecimientos, producto de la vulnerabilidad originada por dinámicas sociales, relaciones de poder, intereses económicos, y formas de ocupación y explotación del medio físico en que se asientan las sociedades». Ver más aquí

No se trata de una postura excéntrica ni marginal. Esta perspectiva ha sido respaldada por instituciones como la ONU, el Banco Mundial, y la Oficina de Naciones Unidas para la Reducción del Riesgo de Desastres (UNDRR), así como por redes académicas de todos los continentes. Numerosos estudios históricos y sociales han documentado cómo los llamados “desastres naturales” son en realidad consecuencias evitables de decisiones humanas. Desde el terremoto de Lisboa de 1755 hasta el de Haití en 2010, pasando por el tsunami en Fukushima o los incendios en Valparaíso, lo que transforma una amenaza en catástrofe no es la naturaleza, sino la manera en que las sociedades se organizan, regulan, distribuyen el suelo y asignan recursos. El desastre, en realidad, se construye con tiempo, desigualdad y abandono.

De hecho, en los últimos años ha surgido un movimiento cultural bajo el lema #NoNaturalDisasters, que busca visibilizar esta crítica y cambiar el lenguaje con que se comunican estos eventos. No se trata de una batalla semántica: es una lucha política y epistemológica. Porque cómo nombramos el desastre condiciona cómo lo pensamos, cómo lo prevenimos y a quién responsabilizamos por sus efectos. El cambio conceptual abre la puerta a una comprensión más profunda y justa del riesgo; es, también, un paso necesario hacia la buena gobernanza.

“Decir que los desastres son naturales aboga por restar responsabilidad a la gobernanza, que suministra justamente los mecanismos para incidir en las variables de exposición, vulnerabilidad y capacidad”, explicó Raúl Salazar, jefe de la UNDRR para las Américas y el Caribe. Recurrir a la expresión “desastres naturales” es, entonces, una forma de fomentar una mirada fantástica —como salida de una novela de Tolkien— que se basta a sí misma, y que es incapaz de advertir el papel central de las sociedades en la construcción del riesgo, y por ende, de su propia vulnerabilidad. Una mirada que despolitiza estos fenómenos, y nos absuelve convenientemente de nuestras responsabilidades. Ver más aquí

Esto no es casual. Porque el lenguaje no solo describe: estabiliza una determinada visión del mundo, legitima principios, configura el sentido común. En tanto forma cultural, el lenguaje —y más aún el que circula por la IA— estructura simbólicamente nuestro entorno de acuerdo con los valores dominantes.

Y aquí la cosa se pone más seria. La inteligencia artificial, al ganar autoridad —en el sentido más romano del término, auctoritas, es decir el prestigio moral y social que legitima y guía sin usar fuerza ni leyes— empieza a producir respuestas que no solo se consumen como ciertas, sino como “normativas”. El lenguaje de la IA, entonces, no solo legitima determinadas concepciones sociales, sino que comienza a determinar lo que se puede o no se puede creer, lo que se puede o no se puede hacer. Y como bien sabemos, ninguna forma de ver el mundo sobrevive sin dotarse de un significado que la vuelva necesaria, natural, deseable. Se necesita, en suma, de algo o alguien que esté investido de auctoritas. Hoy, ese alguien podría ser un algoritmo.

Si hoy buscamos “desastre natural” en Google, o en muchas herramientas de IA, la definición que aparece es la de siempre: un fenómeno natural que causa daños. Una narrativa que exonera a los Estados, que convierte el sufrimiento humano en fatalidad geológica, que despolitiza lo que debería discutirse con urgencia en el espacio público. Y esta tendencia se agravará cuando esa visión sea replicada una y otra vez, sin crítica, por modelos de IA generativa, hasta convertirse en “la” respuesta definitiva.

Porque la IA, como bien advierte la BBC, no solo responde: selecciona. Y al hacerlo, elige qué verdades muestra y cuáles silencia. Si aprende de los textos más frecuentes, tenderá a reforzar las narrativas dominantes, aunque sean erróneas. Y lo hará con una voz serena, segura, incuestionable.

La IA no tiene la obligación de problematizar. No pregunta por qué. No ofrece contexto. Salvo que alguien —nosotros— la programe para hacerlo.

Y allí radica el verdadero riesgo: si dejamos que los algoritmos se conviertan en los nuevos bibliotecarios del siglo XXI, debemos asegurarnos de que no lean solo la contraportada. Porque si el buscador responde que “los desastres son naturales”, empieza una cadena de desinformación que —como en Orwell— puede borrar no solo los hechos, sino también la posibilidad misma de cuestionarlos.

Una ciencia crítica, una ciudadanía informada y una política del riesgo responsable exigen pluralidad de voces, visiones incómodas, historias alternativas. No podemos permitir que la IA funcione como una aplanadora cognitiva: eficiente pero complaciente, rápida pero desprovista de crítica.

Porque, al final —como dijo Winston Smith en 1984—, “la libertad es poder decir que dos más dos son cuatro”. En nuestro caso, la libertad será poder decir que el desastre no es natural. Que tiene causas humanas. Que puede evitarse. Y que no queremos vivir en una web donde todo eso quede fuera del resumen.

 

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad