Publicidad
Los estereotipos de género no sólo lo aprenden los niños… también lo hacen las máquinas Reflejo social

Los estereotipos de género no sólo lo aprenden los niños… también lo hacen las máquinas

Si una máquina ve una imagen de alguien en la cocina, lo interpreta con mayor probabilidad como si esa persona fuera mujer. A su vez asocia que ellas están más ligadas a la casa o el arte y ellos al mundo profesional y las matemáticas.


Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que se ve una vez cómo la inteligencia artificial (IA) reproduce y refuerza los estereotipos. ¿Cómo es posible? Las máquinas terminan siendo sexistas, racistas y clasistas porque apuestan por la tendencia que existe en torno a algo.

La cosa es así. Los científicos usaron dos gigantescos bancos de imágenes como información a las máquinas y aunque los hombres protagonizaban un 33% de las fotos que contenían personas cocinando, la inteligencia artificial dedujo que el 84% de la muestra eran mujeres.

«Se sabe que las tecnologías basadas en big data a veces empeoran inadvertidamente la discriminación debido a sesgos implícitos en los datos», dicen los autores.

No es el único estudio sobre el tema. Una investigación de la revista Science muestra que cuando una máquina aprende un idioma, ésta termina por replicar los sesgos humanos que están incluidos implícitamente en el lenguaje, volviéndose racistas y machistas.

«Los modelos de aprendizaje automático que están entrenados partir de datos humanos a gran escala pueden desarrollar estereotipos, ya que a partir de esos datos las máquinas son capaces de representar con precisión hechos sobre el mundo y la cultura humana, lo que inevitablemente incluye sesgos», sostuvo la principal autora del estudio, la investigadora de la Universidad de Princeton, Aylin Caliskan.

El estudio reveló que la máquina asociaba con mayor probabilidad los nombres femeninos a palabras relacionadas con tareas domésticas o asuntos familiares, mientras que los nombres masculinos se asociaban a una carrera profesional. También se asociaba con mayor probabilidad palabras como «mujer» y «niña» a las artes y menos con las matemáticas.

Según Caliskan, «esto refleja el hecho de que las asociaciones sesgadas tienen lugar de forma frecuente en los textos a los que ha tenido acceso la maquina, hasta el punto de que han terminado dando lugar a estereotipos estadísticamente significativos que han sido reconocidos y aprendidos por la IA».

Uno de los casos del estudio fue también la traducción automática. Por ejemplo, cuando el traductor de Google se enfrenta a pronombres neutros, como en el idioma turco de donde es la investigadora, termina usando pronombres estereotipados por género. Por ejemplo, las frases «O bir doktor. O bir hemsire”, las traduce como « Él es doctor. Ella es enfermera«.

Y no es todo con Google. Una investigación de la Universidad Carnegie Mellon estableció que las mujeres tienen menos posibilidades de recibir los anuncios de trabajos del buscador cuando son mejor remunerados.

Cathy O’Neil, especialista en datos y autora del libro Armas de destrucción matemática (Weapons of Math Destruction, Crown), denuncia que los problemas del algoritmo usados en IA se debe tanto a un problema en la selección de los datos como al prejuicio instalado en la sociedad, que el software hace suyo para acertar.

Publicidad

Tendencias