Publicidad
¿Deepfake, nueva forma de violencia de género?: Cuando con IA se apropian del cuerpo de las mujeres BRAGA

¿Deepfake, nueva forma de violencia de género?: Cuando con IA se apropian del cuerpo de las mujeres

Publicidad

“Un imaginario falsificado y perverso”: es la definición que una investigación española otorga a la deepfake, práctica que consiste en alterar imágenes, audios y/o videos con IA y otras tecnologías sin consentimiento y con un fin determinado. De acuerdo con ella, las primeras víctimas fueron Gal Gadot, Maisie Williams y Taylor Swift, a quienes se les incluyó el cuerpo de actrices porno en 2017: lo ocurrido en una escuela peruana y otra española este 2023, muestra el impacto del mal uso de esta tecnología, carente de regulación legal, con decenas de niñas víctimas.


Los avances de las nuevas tecnologías corren a una velocidad inalcanzable, también para los marcos legales. Es que las leyes se están quedando atrás y las regulaciones sobre los usos de las nuevas tecnologías, como las IA, están recién en debate, si es que están. Y hechos ocurridos en la cotidianidad se encargan de recordar que se trata de una urgencia no tratada.

Porque, tal como recuerda un artículo de Biobío, así como la actriz británica Emma Watson, la influencer y deportista madrileña Marina Rivers, la modelo española Laura Escanes, la cantante Taylor Swift y hasta Rosalía, decenas de niñas también han sido víctimas de deepfake, práctica realizada con el fin de sexualizar y mercantilizar sus cuerpos.

Según la investigación ‘Historia del fake audiovisual: deepfake y la mujer en un imaginario falsificado y perverso’, este abuso de las nuevas tecnologías es posible “gracias a algoritmos gratuitos y fáciles de usar” y sus usos distan cuando las víctimas son hombres o mujeres, en el primer caso se usa para construir discursos políticos o de humor que “mueven la acción, ostentan el poder y van vestidos”, y en el segundo se usa el cuerpo de la mujer para protagonizar “escenas eróticas y son cosificadas”.

Si bien el estudio plantea que en ambos casos “se atenta contra la imagen cualquiera, construyendo un imaginario falsificado y perverso”, la sexualización del cuerpo femenino, sin consentimiento, podría apuntar a una nueva forma de ejercer la violencia de género a través de la vía digital.

Y no sólo hacia mujeres, sino también hacia niñas de todas las edades.

Hace unos días un hecho conmocionó a la ciudad de Almendralejo (España): más de una quincena de niñas entre los 11 y 17 años denunciaron ser víctimas de deepfakes. ¿Los responsables? Hasta el momento fueron identificados once menores (de entre 12 y 13 años), compañeros de curso, que difundieron el material pornográfico falso creado por IA con la cara de las menores a través de Whatsapp.

El hecho no fue un caso aislado, porque hace casi un mes, una escuela de la capital peruana acusó la misma situación, también entre menores de edad.

Según recuerda la nota de Biobío, recientemente la Oficina Federal de Investigación de los Estados Unidos (FBI) advirtió sobre el considerable aumento de deepfakes con fines extorsivos, es decir, para amenazar y chantajear la difusión del contenido creado con IA para conseguir dinero u otro tipo de acción a cambio.

Asimismo, aunque el parlamento europeo aprobó con 499 votos a favor, 28 en contra y 93 abstenciones un proyecto de ley que regula el uso de la Inteligencia Artificial y el plan está a la espera de ser aprobado por los 27 Estados miembros, no contempla puntualmente los casos de deepfake.

En enero de 2023, China se convirtió en el primer país en regular el tema para controlar su mal uso y evitar la difusión de noticias falsas o engañosas.

En noviembre del 2020, ONU Mujeres Chile en conjunto con ONG Amaranta y Fundación Datos Protegidos, realizaron un estudio de la violencia digital percibida por niñas y adolescentes en Chile que arrojó datos preocupantes: el 22% de niñas y adolescentes entre 12 a 14 años vivió violencia digital, cifra que trepa al 41% en adolescentes de entre 15 y 18 años.

Pese a ello, el país no cuenta con una ley que proteja de tales delitos por lo tanto es aún una tarea pendiente no sólo para el congreso sino que también, si se quiere, para la propuesta de Nueva Constitución que entregará este 7 de noviembre el Consejo Constitucional 2023.

Publicidad

Tendencias