Los académicos Patricia Peña y Roberto Araya enfatizaron en la importancia de un corpus de texto cuidadosamente curado para contrarrestar los sesgos de género en la inteligencia artificial, y abogaron por la conciencia y la acción para mejorar la equidad de género en la implementación de la IA.
La influencia de datos sesgados es determinante en la reproducción de sesgos en los algoritmos de inteligencia artificial (IA). Cuando estos algoritmos se entrenan con conjuntos de datos que reflejan prejuicios de género presentes en la sociedad, la IA puede replicar y amplificar esos sesgos en sus decisiones y resultados. Por ejemplo, en aplicaciones de contratación o evaluación de créditos, si los datos históricos contienen sesgos de género, la IA puede perpetuar discriminaciones.
La inteligencia artificial (IA) plantea desafíos significativos en relación con los sesgos de género, señaló la profesora Patricia Peña, investigadora de la Facultad de Comunicación e Imagen de la Universidad de Chile.
Esto se debe a que los algoritmos aprenden de enormes conjuntos de datos sesgados, reproduciendo y ampliando desigualdades, explicó el profesor Roberto Araya, del Instituto de Estudios Avanzados en Educación.
La profesora Patricia Peña, indicó que “en general, nos movemos en sociedades donde tenemos que lidiar diariamente con distintos tipos de sesgos, porque son inherentes a las personas, tienen que ver con nuestro capital social y cultural. Entonces, un punto importante en esta discusión es que sabemos que muchas tecnologías acarrean de por sí sesgos de género en la forma en que fueron concebidas, diseñadas o son usadas”.
En cuanto al impacto de estos sesgos a nivel de género, la académica resaltó la necesidad de cuestionar las bases de datos y algoritmos utilizados.
“Pensemos en esto a gran escala. Por ejemplo, en plataformas tecnológicas que están basadas y entrenadas con algoritmos con ciertos datos e información respecto de decisiones básicas, que pueden ir desde temas de salud pública, definición de políticas públicas o algo tan cotidiano como un ranking para acceder a un trabajo o algún tipo de beneficio”, mencionó.
Y agregó que “evidentemente, el impacto que esto puede tener en la desigualdad y la discriminación es enorme. Esa es la alerta que se empieza a hacer desde distintos estudios e investigaciones académicas, donde las mujeres que están en el campo de la IA han jugado un rol fundamental, porque desde hace algunos años vienen advirtiendo esto”.
De acuerdo al profesor del Instituto de Estudios Avanzados en Educación (IE) de la Universidad de Chile, Roberto Araya, es esencial abordar este problema mediante la mejora de los conjuntos de datos, algoritmos y la conciencia sobre el impacto social de la IA. Este afirma que los mecanismos de aprendizaje de la IA reproduce los sesgos presentes en los datos con los que se entrena.
“La inteligencia artificial es un mecanismo automático e independiente, en principio sin sesgos, pero que se basa en revisar miles de millones de textos que hay en la web, por ejemplo, donde claramente hay sesgos, de género y otros. Entonces, estos algoritmos aprenden con métodos de autoaprendizaje y después reproducen esos mismos sesgos”, explicó.
El académico destacó la complejidad del problema y la necesidad de un enfoque integral para abordar los sesgos de género en la IA. En esta línea, propone la creación de un corpus de texto cuidadosamente curado, libre de sesgos, como una solución más profunda para mejorar el aprendizaje automático.
“Hay dos maneras de abordar este problema: uno es testear cómo está funcionando el algoritmo, pero consume mucho tiempo. Las compañías tienen equipos de gente probando y detectando sesgos, de manera que sobre el sistema entrenado, ajustarlo para que no reproduzca los sesgos más evidentes y obvios, pero es una solución parche”, afirmó el profesor Araya.
El segundo método, en cambio, es más sofisticado y va a la raíz. “La solución más profunda es alimentar estos sistemas de nuevo, partir de cero y alimentarlo de un corpus completo más curado. Es un trabajo enorme que algunas de estas empresas están tratando de manejar”.
Por su parte, la profesora Peña subraya la importancia de debatir sobre los alcances y los impactos de la IA en las universidades para abordar estos desafíos. “El componente de género nos invita a que este tema sea abordado desde los parámetros de la educación no sexista”, indicó.
“La tecnología también debe tener un enfoque no sexista, darnos cuenta dónde están los riesgos y los límites que nos permitan entender a quién impacta y de qué manera, a quién puede perjudicar o beneficiar, si puede perpetuar o no la desigualdad”.
“Incorporar estos debates sobre el alcance y los impactos de la IA es fundamental dentro del rol y el trabajo que las universidades tienen que hacer, porque tienen un impacto social y la formación académica tiene mucho por hacer en ese sentido”, enfatizó.
Finalmente, ambos expertos coincidieron en la importancia de la conciencia y acción colectiva para mitigar los sesgos de género en la IA y promover un futuro más equitativo y ético en este campo.