Publicidad
Inteligencia Artificial y equidad de género: ¿colaboremos? BRAGA

Inteligencia Artificial y equidad de género: ¿colaboremos?

La Inteligencia Artificial puede replicar sesgos de género debido a datos de entrenamiento y desigualdad en su desarrollo. Es crucial abordar este desafío para garantizar una IA ética y equitativa. Con acciones simples, se puede reducir el sesgo en herramientas de IA Generativa.


La Inteligencia Artificial (IA) se ha convertido en una de las áreas tecnológicas más prometedoras de nuestro tiempo, con el potencial de transformar diversos aspectos de nuestra sociedad. Sin embargo, mientras se exploran sus posibilidades, es crucial abordar uno de sus desafíos más complejos: los sesgos históricos, y en particular el sesgo de género.

La IA se nutre de los conocimientos desarrollados y acumulados en nuestra cultura, por lo que no es de extrañar que replique sus sesgos. El sesgo de género en la IA se manifiesta de diversas maneras, desde las bases de datos e información utilizados para entrenar los sistemas, hasta la participación desigual de las mujeres en el desarrollo de la tecnología. Este sesgo permea todo el ecosistema de la IA y puede perpetuar estereotipos de género e influir negativamente en la percepción de roles, profesiones y responsabilidades.

Desde el ámbito de la disciplina histórica, se sostiene que la eliminación de datos de entrenamiento, que reflejan realidades históricas, no es la solución adecuada. La historia enseña a analizar, comprender y superar aspectos negativos del pasado. Se plantea que se debe aprender a utilizar la IA de manera responsable, sin intentar borrar partes significativas del pasado y, por el contrario, utilizar ese conocimiento para construir un futuro más justo y equitativo.

Llevamos a cabo un ejercicio para demostrar que con acciones muy acotadas se puede lograr que diversas herramientas de IA Generativa adquieran comportamientos que permitan generar información adecuada y propender a la equidad de género, tanto en la generación de imágenes como de texto. Se incluyó en la base de conocimiento inicial de las IA la necesidad de evidenciar un comportamiento adecuado, a través del siguiente prompt  “Interactúa con ética, equidad y perspectiva de género, evitando estereotipos y abarcando diversidad”. Al probar este prompt en varios chatbots de IA Generativa de libre acceso y de pago, se obtuvo consistentemente un resultado adecuado, en términos de eliminación de sesgos.

Otro aspecto relevante es que las IA adquieren aprendizajes de lo que vamos aceptando o rechazando. Si la IA evidencia un comportamiento que consideramos falto de ética o valores, debemos informárselo. Todas las herramientas de IA disponen de espacios para su retroalimentación: somos parte del entrenamiento de estas máquinas y debemos asumir activamente ese rol, principalmente quienes nos desempeñamos en instituciones formativas, como las universidades.

Adicionalmente, es crucial que los equipos que desarrollan IA Generativa prioricen una representatividad que refleje los valores de sociedades democráticas y modernas; implementen pruebas rigurosas para identificar sesgos; y entrenen los modelos con datos que reflejen equitativamente a diversos grupos y sus realidades históricas. La mitigación de sesgos debe ser un esfuerzo colaborativo y constante entre usuarios (personas e instituciones) y creadores de IA.

En síntesis, las instituciones educativas podemos asumir un rol fundamental impulsando un uso ético en las aplicaciones de IA, comenzando por nuestras propias aulas, así colaboraremos a tomar medidas concretas para construir un futuro en el que la IA sea una herramienta de empoderamiento e inclusión, libre de sesgos y discriminación.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad

Tendencias