El género es personal, no computacional

Print Friendly, PDF & Email
Share Button

por Foad Hamidi, Morgan Scheuerman y Stacy Branham traducción David ormeño

Imagínese caminando por la calle y viendo las pantallas publicitarias cambiar su contenido en función de cómo camina, cómo habla, o incluso la forma de su pecho. Estas pantallas se basan en cámaras, micrófonos y computadoras ocultas para adivinar si eres hombre o mujer. Puede sonar futurista, pero los clientes de una pizzería noruega descubrieron que era exactamente lo que estaba sucediendo: las mujeres veían anuncios de ensalada y los hombres veían anuncios de opciones de carne. El software que ejecutaba un tablero publicitario digital se revoló cuando se cayó y mostró su código subyacente. La motivación para usar esta tecnología podría haber sido mejorar la calidad de la publicidad o la experiencia del usuario. Sin embargo, muchos clientes se sintieron desagradablemente sorprendidos por ello.

Este tipo de situación no es solo espeluznante e invasiva. Es peor: los esfuerzos para el reconocimiento automático de género, el uso de algoritmos para adivinar el género de una persona en función de las imágenes, el video o el audio, plantea importantes preocupaciones sociales y éticas que aún no se han explorado del todo. La mayoría de las investigaciones actuales sobre tecnologías automáticas de reconocimiento de género se enfocan en cambio en detalles tecnológicos.

Nuestra investigación descubrió que las personas con diversas identidades de género, incluidas las que se identifican como transgéneros o de género no binario, están particularmente preocupadas de que estos sistemas puedan clasificarlas erróneamente. Las personas que expresan su género de manera diferente a las normas masculinas y femeninas estereotipadas ya experimentan discriminación y daño como resultado de una mala clasificación o incomprensión. Idealmente, los diseñadores de tecnología deberían desarrollar sistemas para hacer que estos problemas sean menos comunes, no más.

Usar algoritmos para clasificar personas

A medida que las tecnologías digitales se vuelven más potentes y sofisticadas, sus diseñadores intentan utilizarlas para identificar y categorizar características humanas complejas, como la orientación sexual, el género y la etnia. La idea es que con suficiente capacitación en abundantes datos de usuario, los algoritmos pueden aprender a analizar la apariencia y el comportamiento de las personas, y quizás algún día caractericen a las personas igual o mejor que otros humanos.

Cómo funciona el aprendizaje automático

El género es un tema difícil de manejar para las personas. Es un concepto complejo con funciones importantes tanto como construcción cultural como aspecto central de la identidad de un individuo. Investigadores, eruditos y activistas están revelando cada vez más los aspectos diversos, fluidos y multifacéticos del género. En el proceso, descubren que ignorar esta diversidad puede conducir tanto a experiencias perjudiciales como a la injusticia social. Por ejemplo, según la Encuesta nacional de personas transgénero 2016 , el 47 por ciento de los participantes transgénero afirmaron que habían experimentado algún tipo de discriminación en su lugar de trabajo debido a su identidad de género. Más de la mitad de las personas transgénero que fueron hostigadas, atacadas o expulsadas debido a su identidad de género habían intentado suicidarse.

Muchas personas, en un momento u otro, se han sentido sorprendidas, confundidas o incluso enojadas al verse confundidas con una persona de otro sexo. Cuando eso le sucede a alguien que es transgénero, como se estima que el 0,6 por ciento de los estadounidenses, o 1,4 millones de personas, lo son, puede causar un estrés y ansiedad considerables.

Efectos del reconocimiento automático de género

En nuestra investigación, entrevistamos a 13 personas transgénero y no conformes con el género, sobre sus impresiones generales de la tecnología automática de reconocimiento de género. También les pedimos que describieran sus respuestas a escenarios futuros imaginarios donde podrían encontrarlo. Los 13 participantes estaban preocupados por esta tecnología y dudaron si podría ofrecer algún beneficio a su comunidad.

De particular preocupación era la posibilidad de ser mal interpretado por ella; en su experiencia, el género es, en gran medida, una característica interna y subjetiva, no algo que se expresa necesariamente o por completo en el exterior. Por lo tanto, ni los humanos ni los algoritmos pueden leer con precisión el género a través de las características físicas, como la cara, el cuerpo o la voz.

Describieron cómo el ser mal detectados por los algoritmos podría sentirse peor que si los humanos lo hicieran. La tecnología a menudo se percibe o se cree que es objetiva e imparcial, por lo que ser categorizado erróneamente por un algoritmo enfatizaría la idea errónea de que una identidad transgénero no es auténtica. Un participante describió cómo se sentirían heridos si una “pieza de software de un millón de dólares desarrollada por muchas personas” decidiera que no son quienes ellos mismos creen que son.

Privacidad y transparencia

Las personas que entrevistamos compartían la preocupación pública común de que las cámaras automáticas podrían usarse para la vigilancia sin su consentimiento o conocimiento; Durante años, los investigadores y activistas han alertado sobre el aumento de las amenazas a la privacidad en un mundo poblado por sensores y cámaras.

Pero nuestros participantes describieron cómo los efectos de estas tecnologías podrían ser mayores para las personas transgénero. Por ejemplo, podrían ser señalados como inusuales porque se ven o se comportan de manera diferente a lo que esperan los algoritmos subyacentes. Algunos participantes incluso estaban preocupados de que los sistemas pudieran falsamente determinar que estaban tratando de ser otra persona y engañar al sistema.

Sus preocupaciones también se extendieron a las personas cisgénero que podrían verse o actuar de forma diferente a la mayoría, como las personas de diferentes razas, las personas que los algoritmos perciben como andróginos y las personas con estructuras faciales únicas. Esto ya le sucede a personas pertenecientes a minorías raciales y étnicas, a quienes la tecnología de reconocimiento facial les identifica erróneamente con regularidad. Por ejemplo, la tecnología de reconocimiento facial existente en algunas cámaras no detecta adecuadamente las caras de los usuarios asiáticos y les envía mensajes para que dejen de parpadear o para que no los abran.

Nuestros entrevistados querían saber más sobre cómo funcionan los sistemas automáticos de reconocimiento de género y para qué se utilizan. No querían conocer detalles técnicos profundos, pero querían asegurarse de que la tecnología no comprometiera su privacidad o identidad. También querían que más personas transgénero participaran en las primeras etapas de diseño y desarrollo de estos sistemas, mucho antes de que se implementaran.

Crear sistemas automáticos inclusivos

Nuestros resultados demuestran cómo los diseñadores de tecnologías de categorización automáticas pueden causar daños inadvertidamente al hacer suposiciones sobre la simplicidad y la previsibilidad de las características humanas. Nuestra investigación se suma a un creciente cuerpo de trabajo que intenta incorporar de manera más cuidadosa el género en la tecnología.

Históricamente, las minorías han quedado fuera de las conversaciones sobre el despliegue de tecnología a gran escala, incluidas las minorías étnicas y las personas con discapacidad . Sin embargo, tanto los científicos como los diseñadores saben que incluir aportes de grupos minoritarios durante el proceso de diseño puede conducir a innovaciones técnicas que beneficien a todas las personas. Abogamos por un enfoque de automatización más inclusivo e inclusivo de género que incorpora perspectivas diversas.

A medida que las tecnologías digitales se desarrollan y maduran, pueden llevar a innovaciones impresionantes. Pero como los humanos dirigen ese trabajo, deben evitar amplificar los prejuicios y los prejuicios humanos que son negativos y limitantes. En el caso del reconocimiento automático de género, no necesariamente concluimos que estos algoritmos deberían abandonarse. Por el contrario, los diseñadores de estos sistemas deberían incluir y ser sensibles a la diversidad y complejidad de la identidad humana.

Share Button
This entry was posted in Artículos. Bookmark the permalink.

Comments are closed.