Artículos

Redes sociales y líneas editoriales – Enrique Dans

IMAGE: Mipan - 123RF

Siguiendo al debate sobre la pregunta que algunos trabajadores de Facebook dirigieron a Mark Zuckerberg sobre la responsabilidad que tenían como compañía a la hora de evitar una presidencia de Donald Trump, un artículo en Gizmodo, Former Facebook workers: we routinely suppressed conservative news, da voz a algunos ex-trabajadores freelance de la compañía dedicados a la función de editorialización de noticias (news curation), que afirman que del mismo modo en que se les instruía para que noticias referidas a la propia Facebook no apareciesen en los trending topics, también se dedicaban a eliminar de los mismos noticias con marcado tinte conservador.

La reacción de Facebook ha sido inmediata: además de afirmar que la compañía no permite la supresión de ninguna perspectiva política, asegura que se toma las alegaciones de sesgo de manera muy seria, y publica una entrada de Tom Stocky, responsable de los trending topics, en la que intenta dejar claro que las alegaciones anónimas son falsas y que nadie en su equipo se ha dedicado nunca a nada que no sea auditar los temas que emergen del algoritmo para incluir en la lista aquellos que reflejen eventos reales, eliminando simplemente “basura, temas duplicados, hoaxes, o temas con fuentes insuficientes”, que su herramienta no permite la discriminación de noticias por su color ideológico, que todas sus acciones son sistemáticamente registradas y revisadas, y que cualquier violación de estas normas constituiría una falta castigada con el despido.

Las alegaciones de sesgo en la selección de los trending topics han sido una cuestión habitual en todas las redes sociales. El desarrollo de los algoritmos implicados en la detección y selección de esas temáticas es bastante mas compleja de lo que parece, y por lo general, suele responder no solo al número de menciones sin más, sino a factores como el crecimiento de las mismas en el tiempo o a su dispersión geográfica, entre otros. En los medios tradicionales, el concepto de línea editorial está perfectamente aceptado, es parte de la identidad de la cabecera, se consolida a lo largo del tiempo, y es una de las razones por las que los lectores tienden a preferir informarse en un medio u otro.

Las redes sociales, sin embargo, han intentado desde un principio responder a los gustos e intereses de la totalidad de la base de usuarios, sin reconocer en ningún momento sesgos que pudiesen hacer que aquellos más próximos a uno u otro lado del espectro político pudiesen llegar a sentirse incómodos. El color de las noticias que vemos en nuestros timelines está algorítmicamente condicionado, se supone, por las acciones de aquellos a los que seguimos, como lo está también la selección de los trending topics. Pero es en este desarrollo algorítmico precisamente donde surge el problema: dado que los algoritmos no pueden ser completamente transparentes supuestamente para evitar una explotación interesada, toda diferencia entre lo que una persona ve y lo que querría realmente ver en ellos en función de su sesgo personal es fácilmente etiquetada como manipulación.

¿Existe manipulación en los trending topics de Facebook? Parece difícil llegar a saberlo, y en caso de existir, podría provenir de líneas marcadas institucionalmente, o de procesos no oficiales llevados a cabo por trabajadores individuales afectados por el desarrollo de un clima determinado, algo que sucede de manera natural en algunas organizaciones. Parece claro que aunque las compañías de Silicon Valley no discriminen de facto a sus trabajadores en función de su pensamiento político, pueden tender a atraer de una manera más acusada a personas con inclinaciones más progresistas, menos conservadoras o con una afinidad mayor por los cambios sociales, un sesgo que podría terminar reflejándose en procesos como la selección de noticias si se permite que esta se desarrolle de manera claramente manual. De hecho, en la mayoría de los entornos de noticias con un mínimo de calidad que conozco, la línea editorial no se expresa de manera directa, sino que responde más bien a procesos sociales que determinan un cierto “clima general” que termina condicionándola.

Para Facebook, empeñada desde hace algún tiempo en sacudirse el componente más “frívolo” de lo que consideramos una red social para pasar a ser ese lugar en el que nos informamos, en el que leemos las noticias que comparte nuestro entorno o en el que vemos vídeos generados y compartidos por aquellos que conforman nuestro panorama informativo, las acusaciones de sesgo son enormemente graves. A partir del momento en que te sientas encima de una pirámide que puede ver los intereses de mil seiscientos millones de personas en todo el mundo, la tentación de tratar de influir sobre su pensamiento puede llegar a ser enorme, y de hecho, se ha expresado anteriormente en experimentos A/B que fueron considerados manipulaciones psicológicas de sus usuarios, y que generaron un cierto rechazo. Como suele decirse, un gran poder conlleva una gran responsabilidad, y Facebook tendrá ahora que esforzarse por demostrar de manera fehaciente que no está utilizando su posición para editorializar las noticias que los usuarios ven en sustimelines o en sus trending topics, so pena de generar dudas sobre el nivel de manipulación que pretende ejercer sobre ellos.

Quien controla la red, puede controlar el mundo, sí. Pero antes de imaginarnos a Mark Zuckerberg acariciando su gato mientras quita y pone gobiernos, habrá que tratar de averiguar si las fuentes anónimas consultadas para el artículo Gizmodo responden en base a procesos establecidos de manera intencional para generar una línea editorial, o simplemente a sesgos personales o, incluso, a un malestar con una compañía para la que, presuntamente, ya no trabajan. Habrá que estimar si la parte manual de esos procesos permite, en efecto, que se lleven a cabo procesos de manipulación en función de un clima de opinión o unas tendencias mayoritarias determinadas en la compañía. Y habrá que auditar cuidadosamente los archivos de noticias descartadas para detectar si realmente se produjo, por la razón que sea, algún tipo de ocultación.

Facebook se encuentra ahora en una posición de crisis comunicativa complicada: como la mujer del César, no solo tiene que ser honesta, sino además, parecerlo. No parece una discusión que se pueda o se deba dejar pasar, o que llegue a generar un cierto poso de duda. Veremos la reacción.