Artículos

La fina línea que divide un algoritmo de la adicción

Internet nos ha vendido la idea de que nosotros tenemos el control de lo que hacemos en la red, pero… ¿es eso de verdad cierto? El poder de los algoritmos juega un papel fundamental en nuestra adicción a la red de redes.

Procrastinación, desde hace años escuchamos esta palabra cuando nos referimos sobre todo a perder el tiempo delante de la pantalla del ordenador. Refrescar Facebook una y otra vez, quedarse boquiabierto ante los stories de Instagram o ir de una recomendación a otra de YouTube durante horas. Todos conocemos esta clase de pasatiempos.

Cuando estás viendo un vídeo en Youtube y observas las recomendaciones que tienes en la parte derecha de la pantalla, encuentras muchos que ya has visto, una especie de grandes éxitos de tus gustos, junto a otros de los mismos creadores y unos contados que posiblemente también te gusten, aunque no los hayas visto nunca. Son los que el algoritmo quiere que descubras.

Pero no serán todas las recomendaciones exactamente iguales, porque siempre tendrás un abanico de elecciones como si fuese una gama de distintos tonos del mismo color: supuestamente, tu color favorito.

La dosis diaria

Casi todas las personas que conocemos necesitan su dosis diaria de redes sociales. Algunos se quedan cada mañana en la cama durante un rato con las redes sociales mientras despiertan, otros después de comer han cogido el hábito de mirar las actualizaciones hasta que llegue el momento de moverse, o ese espacio de tiempo en el que nos sentamos en el sofá a tomar aire antes de hacer algo, hasta que finalmente nos liamos demasiado y no lo hacemos.

La diferencia entre el hábito y la adicción es muy leve y un factor que puede decantarnos hacia el segundo término es el poder que se tiene sobre el uso y los tiempos. Pero hay que añadir un complemento importante a este detalle, que no se es adicto a una red social, sino al algoritmo que manipula lo que aparece ante nuestros ojos.

Adicción al móvil en la cama

Al buscar en redes sociales no se hace solo por un neutro pasatiempo o para informarse, muchas veces se hace por el placer de encontrar cierta indignación o lujuria. Pero esto no es tiene que ser siempre culpa del usuario, la programación del mismo algoritmo empuja hacia los sentimientos más extremos.

El placer de rozar los límites

Facebook reconoció hace tiempo que las actualizaciones que mejor funcionan son las que enfadan a los usuarios. Reciben mayor interacción, logran más visitas en los perfiles de quienes los escriben y son más compartidas. Muestra de ello es que muchos son los que al abandonar la red social atestiguan que sin esta red social tienen una mayor calidad de vida.

Guillaume Chaslot, fundador de AlgoTransparency, un proyecto especialmente crítico con YouTube que pide mayor transparencia en las plataformas, afirma que las motivaciones existentes detrás del algoritmo son erróneas y perjudiciales para el usuario.

Para Chaslot, la “IA no está diseñada para ayudarte a obtener lo que quieres, sino para hacerte adicto a YouTube”. Según su opinión, en YouTube existen unos límites que no se suelen sobrepasar, pero cuanto más se acerque el contenido a esos límites, mayor éxito tendrán los vídeos. Por eso se recomiendan tanto los vídeos con teorías de conspiración, fake news, youtubers muy polémicos… Si se hace clic en ellos, lo más probable es que haya una permanencia de larga duración antes de abandonar el vídeo. El resumen de Chaslot es que “en este momento, el incentivo es crear este tipo de contenido límite que sea muy atractivo, pero no prohibido“. 

En cambio, desde las compañías se alude a la calidad como factor de permanencia e interés en los vídeos. Asimismo, el discurso es que las recomendaciones se basan en las cifras de interacción de los usuarios a través de los likes, compartir, etc.

Este debate abierto entre ambos bandos no encuentra resolución y se encalló cuando desde AlgoTransparency se solicitaron datos y vídeos recomendados concretos, ejemplos tangibles y no opiniones.

Si caes una vez, repetirás

Uno de los problemas que suelen ocurrir con los algoritmos de YouTube es la imposibilidad de escapar del contenido que una vez generó curiosidad. Normalmente, este suele ser el que aparece de forma anecdótica en las recomendaciones, pero no se le hace clic por vergüenza, para no darle visitas o porque es contrario a los gustos o valores del usuario.

El problema está en que una vez que se ha clicado, se empieza a sugerir multitud de contenido similar. Cuando se cataloga que el usuario ha pasado a ser cierto target, lo normal es que se empiece a recibir contenido más segmentado para que lo disfrute u horrorice con él. Del mismo modo que Twitter enseña contenido de usuarios importantes a los que se entró una vez para saber su opinión, si has mostrado ciertas tendencias, serás gratificado con tus dosis.

Un caso especialmente grave fue el que se destapó por parte de The New York Times con la recomendación de vídeos en los que aparecían niños en bañador a personas que podían tener interés por contenido que rozase la pedofilia. Esta circunstancia propició que personas anónimas que habían subido vídeos de sus hijos para compartirlos con unas pocas personas cercanas encontrasen que tenían 400.000 visitas.

Este sistema de catalogación que podría utilizarse de distintas formas, y quién sabe el uso que le sacarían gobiernos autoritarios, tiene una muy particular: ahondar y satisfacer los placeres más privados y monetizarlos.

El algoritmo no trabaja para ti

Cualquier comunicado o entrevista que se haga por parte de las empresas tecnológicas no pasa de ser relaciones públicas. Todo comunicado público debe quedar encuadrado en ese contexto de cara a entender muchas declaraciones. 

El fin de las empresas es ganar dinero y las grandes empresas tecnológicas no es que presuman de un pasado en el que se hayan mostrado especialmente sensibles con los usuarios o su privacidad. Los grandes cambios en favor del bienestar de los usuarios suelen ser impulsados por crisis o legislaciones internacionales, pero no por altruismo. Ejemplos podrían ser los casos de suicidios en directo a través de Facebook o las múltiples polémicas que han llevado a YouTube a cambiar su política de contenidos para eliminar algunos discursos de odio.

Entrenar a una sola inteligencia artificial emite más CO2 que 5 coches en toda su vida

El objetivo del algoritmo es que sigas haciendo clic y pases el mayor tiempo posible delante de la pantalla. La publicidad es lo que mantiene la gratuidad de uso de las plataformas, sea la que se consigue directamente al mostrar anuncios o en la venta a terceros de los datos que pueden obtener del usuario para lograr mayor segmentación.

De cara a prevenir circunstancias o poner límites al uso, un paso dado en los últimos días ha sido la opción de eliminar vídeos y canales de las recomendaciones. Pero, por poner otros ejemplos, nada más fácil para YouTube que la posibilidad de crear una función que calcule y limite el tiempo diario de exposición a su contenido. Esta función podría tener además gran interés de cara al uso que hacen los menores de la red.

Algoritmos como casas de apuestas

Si las casas de apuestas fomentan la ludopatía, ¿se puede decir que los algoritmos de estas redes sociales lo hacen con la adicción a su contenido? El fin es que se usen todo lo posible y para lograrlo se recurre a los instintos más profundos, aquellos que en ocasiones no se muestran por el bien de la sociedad pero que en la intimidad pueden encontrar una satisfacción.

El algoritmo de YouTube nos conoce muy bien y sabe qué intereses tenemos: si solo entramos por los videoclips, por ver las noticias, a youtubers o polemizar. Del mismo modo, sabe cómo retenernos dentro de la red, igual que cuando entras en Facebook y los primeros estados que ves te enfadan y sientes ganas de quedarte a discutir. No depende de ellos que hagas un buen uso de la red social, sino el que te quedes en lo posible conectado.

Del mismo modo que no se ha conseguido que el sector financiero se preocupe por el bien del ciudadano sobre su negocio, más complicado parece que se haga con un sector como las redes sociales, donde además se vende que tú tienes el control.

Via