Facebook y la neutralidad: personas frente a algoritmos – Enrique Dans

Print Friendly

Facebook like and unlike

 

 

 

 

 

 

Además de mi artículo de hace un par de días sobre Facebook y las líneas editoriales, que seguía a uno anterior sobre el mismo tema y trataba de poner en contexto las recientes revelaciones lanzadas por Gizmodo sobre la implicación y el sesgo generado por los editores de los trending topics de Facebook, decidí dedicar a la misma temática tanto mi participación en la barra tecnológica de La Noche en 24 horas (en la página del programa, a partir del minuto 1:38:15), como mi columna en El Español, titulada “Facebook y la política“.

Muy poco tiempo después de haber entregado mi columna, The Guardian publicó una noticia basada en una filtración de documentos internos de la compañía en la que demostraban cómo los trending topics de Facebook eran, en realidad, producto de una editorialización humana, no de algoritmos, lo que, según el diario, situaba a la compañía al mismo nivel que cualquier medio tradicional en lo tocante al desarrollo de su línea editorial. La respuesta de Facebook ha sido, en primer lugar, negar la mayor y afirmar que los documentos en posesión de The Guardian responden a una operativa antigua de determinación de los trending topics que ya no se desarrolla así, así como una nota de Mark Zuckerberg negando la editorialización, afirmando la neutralidad y la voluntad de corregir cualquier posible sesgo que se haya generado por intervención de los editores, una entrada detallada de Justin Osofsky sobre cómo se generan los trending topics, y una invitación abierta a políticos conservadores  – supuestamente los afectados por el presunto sesgo editorial de la plataforma – para hablar del tema.

La secuencia de acontecimientos deja clara la gravedad del caso: en cuatro días, tres notas oficiales aclaratorias de la compañía incluyendo una de su fundador, infinidad de artículos sobre el tema, y hasta unrequerimiento para comparecer ante el Senado de los Estados Unidos, o la inmediata reacción de la subsidiaria española enviándome información sobre el tema en cuanto me vieron en televisión comentándolo (gracias, Lola 🙂 La editorialización de Facebook es indudablemente un tema relevante: que la red en la que 1,600 millones de personas en todo el mundo se informan y leen noticias – porque el componente más “frívolo” de qué han hecho mis amigos, si han subido fotos o si hay que felicitar a alguien ha pasado claramente a segundo plano – decida tratar de influenciar cómo votamos o cómo nos sentimos es algo potencialmente muy grave, aunque la Primera Enmienda de la Constitución de los Estados Unidos defienda teóricamente su derecho a hacerlo si lo estima oportuno. Todo indica que lo que en un periódico, en una emisora de radio o en un canal de televisión nos parece perfectamente aceptable – o que incluso se convierte en la razón para escoger informarnos ahí – en una red social nos sobra. Por lo que parece desprenderse de las reacciones al respecto de este tema, queremos que en una red social, el sesgo venga de nosotros mismos, de lo que compartimos allí y de lo que comparten aquellos a los que decidimos seguir, pero preferimos que la herramienta no nos filtre nada en función del suyo.

Pero además, de la discusión surge una disyuntiva interesante, y es el concepto de línea editorial y de neutralidad explicado en función de quién la determina, si editores humanos o procesos algorítmicos. Generar unos trending topic que proporcionen a los usuarios información sobre el contenido más relevante o más comentado en una red social es relativamente sencillo (en concepto, no en su desarrollo): en teoría, o bien creas unos algoritmos que, con la potencia semántica adecuada, extraen esos temas y los publican en una lista, o dejas esa labor a editores humanos, o bien optas por un sistema mixto en el que los algoritmos extraen y los humanos hacen un filtrado más detallado que evite errores, duplicidades o manipulaciones. Las cosas, obviamente, no son tan sencillas en la práctica: para Twitter, por ejemplo, que opta por la vía más algorítmica, resulta un problema importante luchar contra las alegaciones de manipulación que suelen provenir del hecho de que la permanencia en los trending topics no depende de las menciones de un tema, sino del valor del incremento de las mismas. Eso genera una aparente disonancia: si se está hablando muchísimo de un tema, pero se habla más o menos lo mismo o menos que en las horas anteriores, ese tema tiende a desaparecer de los trending topics, a pesar de que los usuarios aún pueden estar viéndolo como objeto de una presencia muy prominente. Por otro lado, la no presencia de una editorialización humana tiene sus límites, y Twitter sí se ha visto obligada a eliminar trending topics de la lista cuando, por ejemplo, contienen términos que puedan interpretarse como incitación al odio, a la violencia, al racismo, etc.

En el caso de Facebook, el hecho de que originalmente se recurriese a editores humanos y se haya dado cada vez más un protagonismo mayor al algoritmo parece que se interpreta como una capacidad de sesgo menor. Tendemos a asumir que los editores humanos tienen un problema de sesgo imposible de eliminar: una línea editorial, en efecto, no tiene por qué estar definida como tal, como posición oficial sometida a unas directrices específicas. En ocasiones, la línea editorial y el sesgo provienen simplemente de un clima político determinado en la organización – que puede originarse en algunos grupos de personas con más ascendente, o en el propio líder o fundador – o en cuestiones como los matices que se apliquen, por ejemplo, en la incorporación de talento.

En efecto, los humanos tendemos a tener sesgos, y además, en ocasiones, ni siquiera somos completamente conscientes de ellos. Sin embargo, me parece muy peligroso asumir que unos trending topics queden automáticamente “libres de pecado” por proceder de un supuestamente inmaculado algoritmo. Un algoritmo no es algo mágico, sino u conjunto de normas marcadas por aquellos que lo programaron. Por tanto, afirmar que tal o cual compañía no editorializa “porque su selección de temas proviene directamente del algoritmo” no es algo como tal significativo, salvo que podamos ver perfectamente cómo funciona el algoritmo – algo que habitualmente no se puede hacer, porque ello facilitaría la tarea a aquellos que aspiran a manipularlo. Pero un algoritmo no es como tal un santo, no garantiza la inexistencia de sesgos, y no evita que alguien introduzca en él un componente de línea editorial si quiere hacerlo. A medida, además, que los algoritmos emerjan más de “cajas negras” determinadas por un análisis de casuísticas y resultados anteriores procesados mediante metodologías de machine learning, será preciso entender que su condición de máquina no implica necesariamente nada en términos de imparcialidad o ausencia de sesgo.

Una discusión que me resulta fascinante. Pero para Facebook, un problema serio, que podría llegar a determinar una crisis de reputación que llevase a que muchas personas se encontrasen incómodas utilizándola. De ahí la prontitud de las reacciones, y la disposición a aclarar todo lo que se pueda aclarar en ese sentido con quien haga falta. Si Facebook quiere, com la mujer del César, además de ser decente, parecerlo, va a tener que esforzarse mucho.

Suscríbete a nuestro boletín y únete a nuestros 57 suscriptores.

This entry was posted in Artículos, DD.HH., Tecnología. Bookmark the permalink.

Comments are closed.