Artículos DD.HH. Inteligencia Artificial Sociedad

La ‘app’ que desnuda mujeres o por qué la IA daña más a los más vulnerables

Yuri_Arcurs
Print Friendly, PDF & Email

La atención alrededor de los deepfakes y los contenidos artificiales ha crecido en los últimos meses. Pero aunque el debate se centra principalmente en su posible impacto en la política, varios expertos en derechos humanos y ética tecnológica han advertido que se ha pasado por alto otro posible daño: las consecuencias probablemente devastadoras para las mujeres y otros grupos vulnerables contra los que esta tecnología va dirigida y que no pueden protegerse.

Y eso es justo lo que pasó la semana pasada a causa del último experimento de deepfake, una aplicación llamada DeepNude que “desnudaba” a las mujeres de las fotos. Descubierta en un artículo publicado en Vice, usaba redes generativas antagónicas (GAN) para quitar la ropa de las mujeres, lo que revelaba cuerpos desnudos muy realistas. El artículo rápidamente provocó una reacción viral, y el creador de la aplicación la cerró.

“La aplicación DeepNude es un ejemplo de nuestros peores temores sobre cómo las herramientas audiovisuales se pueden usar contra las mujeres”, destaca la experta del Instituto de Investigación de Datos y Sociedad Mutale Nkonde, asesora en un proyecto de ley presentado en el Congreso de EE. UU. por la congresista Yvette Clarke que crearía mecanismos para las víctimas de este tipo de deepfakes maliciosos para ofrecerles recursos legales por daños de reputación.

La aplicación va dirigida específicamente contra las mujeres. Vice descubrió que el software solo generaba imágenes del cuerpo femenino, incluso cuando se le daba una foto de un hombre. Su creador anónimo confirmó que había entrenado el algoritmo de las GAN únicamente con fotos de mujeres desnudas, en este caso con más de 10.000, porque eran más fáciles de encontrar online. No obstante, también tuvo la intención de hacer una versión masculina.

Aunque los deepfakes no representaban los cuerpos reales de las mujeres (estaban completamente sintetizados por la inteligencia artificial -IA-), bastarían para causar un importante daño emocional y de reputación. Las imágenes se podrían confundir fácilmente con la realidad y usarse como venganza porno o como una poderosa herramienta para silenciar a las mujeres. De hecho, algo similar ya había sucedido antes: la cara de una periodista de la India fue insertada en un vídeo pornográfico después de que empezara a destapar la corrupción gubernamental. Al instante se volvió viral, seguido de un fuerte acoso y amenazas de violación, y ella tuvo que estar offline durante varios meses.

Los deepfakes no son una amenaza nueva; los contenidos manipulados existen desde mucho antes que la IA. Pero la tecnología ha acelerado y ampliado las tendencias existentes, según el director del programa de la organización de derechos humanos sin ánimo de lucro Witness, Sam Gregory. Los algoritmos han hecho que sea mucho más fácil generar contenidos falsos cada vez más convincentes. Por lo tanto, todo lo que la gente haya utilizado para manipular los medios de comunicación en el pasado, como ataques a periodistas, la corrupción o la destrucción de pruebas, será cada vez más común y peligrosamente difícil de detectar.

Esta aplicación no es diferente. El problema del abuso sexual de mujeres basado en imágenes ya existía. Los deepfakes no hacen más que echar más leña al fuego.

Siguiendo la misma lógica, a Nkonde le preocupa que las mujeres no sean los únicos objetivos vulnerables de los deepfakes. Las minorías, la gente LGBTQ y otros grupos, a menudo ya sujetos al más grave abuso online, probablemente acaben siendo víctimas, aunque quizás de diferentes maneras. Durante la campaña presidencial de EE. UU. en 2016, por ejemplo, los agentes rusos utilizaron imágenes falsas de personas afroamericanas como parte de una campaña de desinformación en Facebook para aumentar las tensiones raciales entre los estadounidenses.

“La apropiación indebida de las identidades de las personas online fue una nueva forma suprimir votantes”, destaca Nkonde. La tecnología deepfake sería otra herramienta natural para quienes pretenden ser otras personas, alterar la sociedad y causar daño.

Entonces, ¿cuál es el siguiente paso? Tanto Nkonde como Gregory han expresado recomendaciones similares a MIT Technology Review en el pasado: las empresas e investigadores que crean herramientas para los deepfakes también deben responsabilizarse de crear herramientas de defensa, y las compañías de búsquedas y de redes sociales deben integrar esas contramedidas directamente en sus plataformas. Nkonde también insta a los reguladores a actuar rápidamente.

La experta concluye: “Si el Gobierno no encuentra una manera de proteger los derechos de los usuarios, este tipo de aplicaciones va a proliferar. La tecnología no es neutral. Esta aplicación [DeepNude] no tiene doble uso. Se trata de un uso único para un propósito malicioso, y es inmoral. Deberíamos centrarnos en la ética de crear y compartir herramientas que generan contenido. Tenemos que insistir en esto todo lo que haga falta”.

Via

Please follow and like us:
error