Publicidad
La nueva alfabetización: entender y navegar el mundo digital algorítmico Opinión

La nueva alfabetización: entender y navegar el mundo digital algorítmico

Publicidad
Ingrid Bachmann y Teresa Correa
Por : Ingrid Bachmann y Teresa Correa Directora y directora alterna Núcleo Milenio NUDOS.
Ver Más

Es muy importante empezar a exigir mayor transparencia para al menos generar conciencia en la ciudadanía de que estos sistemas están operando y que el contenido está siendo generado por inteligencia artificial.


En un mundo cada vez más digitalizado, los algoritmos han cobrado cada vez más protagonismo. La irrupción de la inteligencia artificial generativa y plataformas como ChatGPT, que se abrió a todo el mundo hace poco más de dos años, han complicado aún más este escenario y sus consecuencias en la vida cotidiana.

En ese contexto de la llamada “Sociedad de la Información”, mucho se habla de la alfabetización digital: alfabetización digital para reforzar la educación escolar, para encontrar trabajo, para hacer trámites online, para evitar caer en fraudes, para reconocer un video falso…

De hecho, se ha planteado como la gran alternativa para hacernos más resilientes contra la desinformación, sobre todo en tiempos en que las imágenes y voces generadas con inteligencia artificial son muy verosímiles y cuando cada vez es más difícil distinguir si estamos frente a algo falso o irreal producido por inteligencia artificial generativa.

La lógica es simple: a mayor alfabetización digital, menos deberíamos caer en la desinformación y, al reconocer contenidos como falsos, menos ayudaríamos –se supone– a amplificarlos y viralizarlos.

Sin embargo, la evidencia es mixta y, a veces, incluso, elusiva. ¿Por qué?

Porque la alfabetización digital engloba una serie de dimensiones que pueden tener efectos contrarios. Por ejemplo, para producir un video o para viralizarlo, se debe tener habilidades digitales operativas, enfocadas en cómo hacer ciertas cosas. Para determinar la veracidad de ese video, sin embargo, es necesario tener la capacidad de identificar, reconocer, evaluar, comparar y chequear ese contenido. Es decir, poseer habilidades crítico-evaluativas.

Esta distinción es cada vez más importante en un entorno digital dominado por algoritmos, donde la información que nos llega está personalizada y es altamente atractiva: apela a nuestros gustos e intereses. E incluso si es falsa, puede ser muy verosímil. En ese escenario, más que habilidades operativas, necesitamos fortalecer la comprensión y evaluación del contexto digital en el que estamos inmersos.

Lo primero que deberíamos comprender como usuarios es de qué se tratan los algoritmos y la inteligencia artificial. En investigaciones desarrolladas en el Núcleo Milenio en Desigualdades y Oportunidades Digitales (NUDOS) hemos encontrado que, en promedio, el 60% de la población no sabe qué son los algoritmos, cómo operan, ni qué implicancias tienen.

¿Qué pasa con aquellos que saben algo del tema, las personas que tienen mayor nivel de alfabetización, no solo digital, sino algorítmica? A partir de dos encuestas distintas, en NUDOS hemos visto que quienes mejor comprenden de qué se trata este mundo digital algorítmico –es decir, tienen mayor conciencia algorítmica– son capaces de discernir en mayor medida que están ante una información falsa y la viralizan menos.

Además de los mayores niveles de comprensión, se necesita una ciudadanía informada y que tenga capacidad para evaluar e, incluso, desconfiar del contenido al que se expone. Aquí el escenario se torna más desafiante, porque los sistemas de inteligencia artificial están hechos para pasar inadvertidos. Son poco transparentes.

Investigaciones realizadas por el Núcleo Milenio Futuros de la Inteligencia Artificial (FAIR) han encontrado que la gente en Chile tiende a confiar en la inteligencia artificial y cuando esta funciona. Si no, confían en que los errores que arroje en un inicio se van a solucionar con el tiempo. Esto no es sorprendente en una sociedad que entrega su RUT y hasta datos biométricos cada vez que se lo piden.

Pero las personas confían en la inteligencia artificial cuando piensan en ella como una entidad abstracta. En cambio, cuando se hace a la gente pensar en sistemas concretos que operan con inteligencia artificial y que tienen efectos en su vida, como, por ejemplo, el transporte público o el sistema de licencias de Fonasa, las personas le demandan más al sistema, confían menos y le piden mayor transparencia.

Algoritmos e inteligencia artificial también se pueden usar para comprobar algunas informaciones, detectar desinformación y poner cota a su difusión. Hay evidencia de que los sistemas que transparentan el uso de estas herramientas y automáticamente ponen etiquetas que advierten que se está ante una información falsa pueden ser efectivos, además de ser más creíbles. Es clave, en todo caso, advertir a los usuarios cuando un contenido –incluso una etiqueta como “verdadero” o “falso”– ha sido definida por una inteligencia artificial, cómo fue entrenado el modelo y si acaso hay supervisión humana.

Es por eso que es muy importante exigir mayor transparencia y mecanismos de explicabilidad. En este minuto, los algoritmos están presentes en todo tipo de usos cotidianos, como redes sociales, plataformas de streaming, búsquedas en internet o compras online, pero no estamos acostumbrados a exigirle a este tipo de sistema ninguna explicación o que siquiera se nos avise si es operado por inteligencia artificial. En este escenario, es muy difícil que la gente comprenda y evalúe, es decir, que desarrolle las tan ansiadas habilidades digitales que se requieren para navegar la vida digital hoy en día.

En un contexto digital de opacidad, es muy difícil demandarle solo al usuario que se alfabetice, entienda, evalúe y adopte estrategias para navegar el escenario digital. La mochila es muy pesada y la contienda, desigual. Por lo tanto, es muy importante empezar a exigir mayor transparencia para al menos generar conciencia en la ciudadanía de que estos sistemas están operando y que el contenido está siendo generado por inteligencia artificial.

Es la única manera de ir logrando mayor habilidades crítico-evaluativas y una ciudadanía que confíe de manera informada –“calibrada”– según las fortalezas y problemas que esta tecnología conlleva.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad