Artículos

Decodificando emojis y definiendo ‘soporte’: las reglas de contenido de Facebook reveladas

por Alex Hern

El documento de 300 páginas para moderadores define qué frases son éticamente inaceptables

Son más de 300 páginas, visualizando y ejemplificando algunos de los usos más limítrofes y éticamente desafiantes de la red social más grande del mundo por sus 2.8 mil millones de usuarios mensuales.

Las pautas secretas de Facebook vistas por The Guardian muestran cómo la compañía controla el trabajo de sus moderadores principalmente subcontratados hasta el más mínimo detalle, definiendo sus reglas con tanta precisión que a los contratistas se les dice qué emojis constituyen “elogios” y cuáles cuentan como “condena”.

Un área particular de controversia rodea a los que se definen como personas y organizaciones peligrosas. En los documentos filtrados que datan de diciembre de 2020, los moderadores de Facebook e Instagram reciben instrucciones sobre cómo definir el “apoyo” a los grupos terroristas y otras “personas peligrosas”, si deben distinguir entre “explicar” y “justificar” las acciones de los terroristas, e incluso en qué contextos es aceptable solicitar el uso de “cámaras de gas”.

Mientras que las pautas de la comunidad de Facebook, que alguna vez estuvieron casi completamente ocultas a la vista de los usuarios, han sido públicas desde 2018 cuando estableció por primera vez en un documento de 27 páginas lo que permite y no permite en su sitio, estos documentos recientemente filtrados son diferentes.

Constituyen pautas mucho más detalladas sobre lo que significan en la práctica las reglas publicadas. Facebook ha argumentado durante mucho tiempo que publicar los documentos completos sería contraproducente, ya que permitiría a los usuarios malintencionados evitar una prohibición por un comportamiento deliberadamente límite.

Kate Klonick, profesora asistente de derecho en la Universidad de St John en Nueva York, comparó los documentos detallados con el papel de la jurisprudencia en el sistema legal inglés y galés. “Estas cosas son muy importantes para capacitar a los moderadores y establecen los detalles esenciales de los estándares de la comunidad”, dijo Klonick.

A principios de este año, Facebook enfrentó críticas de su propia junta de supervisión por no explicar tales detalles a los usuarios. La junta, un organismo cuasi legalista creado por el director ejecutivo de Facebook, Mark Zuckerberg, para actuar como una “corte suprema” para las decisiones de moderación de la red, dictaminó que una publicación de Facebook que cita a Joseph Goebbels para atacar a Donald Trump no era una violación de su política de incitación al odio, y requirió que Facebook restaurara la publicación.

En una “declaración consultiva” no vinculante que acompaña a esa decisión, la junta también recomendó que Facebook “explique y proporcione ejemplos de términos clave” de la política sobre personas y organizaciones peligrosas, “incluidos los significados de “elogio “,”apoyo “y ‘representación’.”

Facebook aún no lo ha hecho, pero las definiciones se establecen en las pautas internas vistas por The Guardian.

En los documentos, Facebook define “elogio” como “contenido que elogia a una entidad, evento o ideología designada [es decir, prohibida] y busca que otros piensen en ellos de manera más positiva. Cuando el discurso neutral discute hechos, historia, divisiones políticas, etc., el elogio a menudo se relaciona con declaraciones basadas en valores y argumentos emotivos”.

Eso incluye elogios directos, como “los combatientes del Estado Islámico son realmente valientes”, así como elogios por las acciones de los grupos, como “mira todo el gran trabajo que Al Qaeda hace por la comunidad local”. Sin embargo, no prohíbe las declaraciones que descartan a un grupo como no amenazante (como “la supremacía blanca no es una amenaza”), ni las metadeclaraciones que argumentan que una entidad designada no debería, de hecho, ser designada.

Del mismo modo, los usuarios no pueden “legitimar la causa” de una entidad peligrosa (publicar, por ejemplo, que “las acciones del Estado Islámico en Siria están justificadas debido a la ocupación injusta de Oriente Medio por parte de Estados Unidos”), pero pueden publicar “declaraciones presentadas en forma de hecho sobre los motivos de la entidad ”.

Facebook distingue entre declaraciones aceptables e inaceptables, diciendo que “el IRA fue empujado hacia la violencia por las prácticas brutales del gobierno británico en Irlanda” estaría permitido, mientras que “el IRA tenía razón al usar la violencia para combatir las prácticas brutales del gobierno británico” no es aceptable.

El propio Zuckerberg en 2018 explicó por qué Facebook no publicó definiciones tan detalladas para sus usuarios, escribiendo que Facebook tenía un “problema básico de incentivos … cuando no se controla, la gente se involucrará de manera desproporcionada con contenido más sensacionalista y provocativo”. Añadió: “Nuestra investigación sugiere que no importa dónde tracemos las líneas de lo que está permitido, a medida que un contenido se acerca a esa línea, las personas se involucrarán más con él en promedio, incluso cuando nos digan después que no lo hacen. me gusta el contenido”.

Facebook ideó dos soluciones, ambas de las cuales buscó: una implicaba que la empresa degradara artificialmente el “contenido límite”, suprimiendo algorítmicamente su distribución. El otro requería que la compañía continuara ocultando la naturaleza exacta de la “línea” a la que se refiere Zuckerberg, por lo que obligaba a los usuarios a “jugar a lo seguro” en lugar de frotarse contra lo permitido.

Klonick dijo que sentía simpatía por Facebook en este punto. “Cuanto más se acerque a la transparencia de las reglas, más fácil será para los malos actores romper esas reglas. Pero también, cuanto más transparente y más abierto es Facebook sobre exactamente cuáles son sus políticas de moderación de contenido, más invitan a la participación y la discusión y rechazan dónde empujan la línea. Cuando abres el libro y dices: ‘Aquí [están] todos los números, aquí están todos los hechos’, eso es una invitación a encontrar fallas “.

En las pautas filtradas, se proporciona la menor claridad para una regla que prohíbe “alinearse con una causa”, que es probablemente el tema específico en juego en la decisión de cita de Goebbels emitida por la junta de supervisión.

De acuerdo con las pautas internas, Facebook prohíbe a los usuarios “expresar sus creencias en los objetivos, métodos, etc. declarados de una organización o individuo”, como en el ejemplo: “Estoy con Tommy Robinson“. También es, quizás sorprendentemente, explícitamente en contra de las políticas de Facebook que cualquier persona publique una imagen de una persona designada “sin subtítulos, o un subtítulo sin sentido”, incluso si no se expresa ningún apoyo para ellos.

Facebook también prohíbe el apoyo a organizaciones prohibidas. Obviamente, eso cubre contenido que busca ayudar a un grupo prohibido financieramente o en especie. Las declaraciones “Estoy enviando botiquines de primeros auxilios a los combatientes de Isis”, “cualquiera que venga a la manifestación Unite the Right puede quedarse en mi casa” y “servicios gratuitos de preparación de impuestos para Proud Boys” se enumeran como ejemplos no permitidos.

También lo son las llamadas a la acción en nombre de dicha organización (“contáctanos a través de Telegram”), así como el reclutamiento (“únete a la lucha por tu patria, únete a HuM“, un grupo islamista paquistaní) y el intercambio de contenido creado por esos grupos, con una excepción explícita para los “informes de noticias neutrales”.

La representación, por el contrario, es bastante simple: los grupos e individuos prohibidos no pueden estar en Facebook. Ser miembro de un grupo como el Ku Klux Klan es automáticamente motivo de prohibición, al igual que crear una página o grupo que pretenda ser, por ejemplo, la “reunión anual oficial del partido nazi 2019”. La creación de una página que dice ser una “cuenta de fan” de una organización prohibida también está prohibida, pero como apoyo en lugar de representación.

Para dar más información sobre el nivel de detalle contenido en los documentos, más allá de esas definiciones de nivel superior hay otras 10 páginas de aclaraciones. El documento, que está organizado como un preguntas frecuentes para que los moderadores de Facebook se refieran mientras trabajan, tiene el sello de haber sido agregado con el tiempo, y las preguntas se vuelven cada vez más específicas a medida que aparecen en el documento.

En uno, los emojis 😀😍❤️👍 y 👌 se enumeran explícitamente como “elogio/apoyo”. En otro, el documento aclara que “apoyar el uso de ‘campos de concentración’, ‘cámaras de gas’ y ‘enviar gente a los hornos’” no está permitido, a menos que el post especifique claramente que se refieren a algo distinto al Holocausto ( “Por ejemplo, en el caso de las cámaras de gas: ejercicios militares legales de pena capital, etc.”).

Algunas de las respuestas apuntan a los problemas de alto nivel que tiene Facebook para hacer cumplir una política global contra personas peligrosas. “¿Consideramos a las personas condenadas por terrorismo como terroristas según nuestra política?” hace una pregunta. La respuesta es no, “designamos a las personas/organizaciones solo si cumplen con nuestros criterios internos para la designación, independientemente de una condena o cargo según la ley local”.

The Guardian no ha visto la larga lista de personas y organizaciones que Facebook ha etiquetado como “peligrosas”, pero el documento contiene una lista mucho más corta de “ideologías de odio” designadas, cuyo apoyo se elimina de la plataforma. Hay cuatro: supremacía blanca, nacionalismo blanco, separatismo blanco y nazismo.

Incluso entonces, la empresa advierte a los moderadores que no se apresuren demasiado. Dentro de las pautas hay dos imágenes, una que muestra a un líder mundial con Photoshop para usar un brazalete nazi y otra luciendo un bigote estilo Hitler con Photoshop. Ambos constituirían un comentario político y estarían permitidos, sugieren las directrices. “Mire para ver los signos reveladores: ¿se ha editado la foto para insertar un símbolo de odio? ¿Es el sujeto una figura pública? ellos dicen.

Facebook insiste en que planea aumentar la transparencia y ofrecer mejores definiciones de las distinciones que hace, dijeron las fuentes.

Un portavoz dijo: “Publicamos los estándares de nuestra comunidad, las minutas de las reuniones periódicas que reunimos con los equipos globales para revisarlos y actualizarlos, y nuestros informes trimestrales que muestran cómo estamos haciendo para hacerlos cumplir para que el público los vea.

“Nos hemos comprometido previamente a publicar cómo aplicamos los términos clave bajo esta política, así como si podemos publicar la lista de individuos y organizaciones que designamos como peligrosos bajo estas reglas. Antes de hacerlo, debemos asegurarnos de que hacer pública esta lista no permita sin darse cuenta que organizaciones o personas peligrosas eludan estas reglas o pongan en riesgo la seguridad de nuestros empleados”.

Fuente: The Guardian