Las mujeres son acosadas cada 30 segundos en Twitter, según un importante estudio

Print Friendly, PDF & Email

El estudio, realizado con la compañía global de software de inteligencia artificial Element AI, analizó 228.000 tweets enviados a 778 mujeres políticas y periodistas en el Reino Unido y Estados Unidos en 2017.

Los resultados revelaron que 1,1 millones de “tweets abusivos o problemáticos” fueron enviados a las mujeres del estudio a lo largo del año, uno cada 30 segundos en promedio.

Se descubrió que las mujeres de color tienen más probabilidades de ser el blanco – las mujeres negras tienen un 84 por ciento más de probabilidades que las mujeres blancas de ser mencionadas en tweets “abusivos o problemáticos”.

La investigación reveló que el abuso es experimentado por mujeres “de todo el espectro político” tanto en los Estados Unidos como en el Reino Unido.

La investigación ha dado como resultado la creación del “conjunto de datos de fuentes múltiples más grande del mundo” sobre el abuso en línea contra las mujeres, según la asesora principal de Amnistía Internacional para la investigación táctica, Milena Marín.

Ahora que este conjunto de datos está en su lugar, hay datos e investigaciones para “respaldar lo que las mujeres nos han estado diciendo durante mucho tiempo”, dijo Marin en una declaración. “Que Twitter es un lugar donde el racismo, la misoginia y la homofobia pueden florecer básicamente sin control”, añadió.

“Encontramos que, aunque el abuso está dirigido a las mujeres de todo el espectro político, las mujeres de color eran mucho más propensas a ser afectadas, y las mujeres negras son desproporcionadamente afectadas. El hecho de que Twitter no haya tomado medidas enérgicas contra este problema significa que está contribuyendo a silenciar las voces ya marginadas”, dijo Marin.

Vijaya Gadde, líder mundial de Twitter en materia legal, política, confianza y seguridad, dijo a Mashable en una declaración que Twitter se ha “comprometido públicamente a mejorar la salud colectiva, la apertura y la civilidad de la conversación pública en nuestro servicio”.

Gadde dijo que Twitter utiliza “una combinación de aprendizaje automático y revisión humana para juzgar los informes de abuso y si violan nuestras reglas”.

El contexto importa cuando se evalúa el comportamiento abusivo y se determinan las acciones apropiadas para hacer cumplir la ley. Los factores que podemos tomar en consideración incluyen, pero no se limitan a: si la conducta está dirigida a un individuo o grupo de personas; si la denuncia ha sido presentada por el objetivo del abuso o un transeúnte; y si la conducta tiene valor periodístico y es de interés público legítimo. Posteriormente, Twitter proporciona notificaciones de seguimiento a la persona que denuncia el abuso. También ofrecemos recomendaciones de acciones adicionales que la persona puede realizar para mejorar su experiencia en Twitter, por ejemplo, utilizando la función de bloqueo o silenciamiento.

Según una declaración de Amnistía, Twitter recibió las conclusiones del informe y “pidió aclaraciones sobre la definición de’problemática’, citando la “necesidad de proteger la libertad de expresión y garantizar que las políticas estén redactadas de forma clara y precisa”.

Gadde también comentó el uso de la palabra “problemático”. “Me gustaría señalar que el concepto de contenido “problemático” con el fin de clasificar el contenido es uno que merece más discusión”, dijo Gadde en la respuesta oficial de Twitter al informe que se envió por correo electrónico a Mashable.

“No está claro cómo ha definido o categorizado dicho contenido, o si está sugiriendo que se elimine de Twitter”, continuó Gadde. “Trabajamos arduamente para construir reglas que se puedan hacer cumplir a nivel mundial y hemos comenzado a consultar al público como parte del proceso – un nuevo enfoque dentro de la industria.

Fuente

Please follow and like us:
This entry was posted in Artículos, DD.HH., Redes sociales, Sociedad. Bookmark the permalink.

Comments are closed.