Artículos

Los efectos del escándalo de Facebook para el futuro de la democracia

Por mucho que la red social cambie su política y Cambridge Analytica borre los datos, el daño ya está hecho. Los modelos de comportamiento construidos se van a ir refinando y alterando cada vez más la capacidad de la sociedad de tener un punto de vista real y amplio sobre los problemas

A estas alturas ya sabrá que Facebook ha lanzado herramienta para que sus usuarios puedan averiguar si los datos de su perfil formaron parte de los que recopiló Cambridge Analytica para su campaña de manipulación electoral. Según la red social, el uso fraudulento de datos personales afecta a 87 millones de personas, de las cuales 71 millones viven en Estados Unidos. La magnitud del suceso está consiguiendo que la gente sea más consciente sobre los terribles daños a la privacidad personal cometidos con el único objetivo de conseguir victorias electorales. En respuesta, Facebook ha restringido el acceso a los datos de sus usuarios y en su testimonio ante el Congreso de Estados Unidos la semana pasada el CEO, Mark Zuckerberg, se comprometió a hacer que la publicidad política en la plataforma sea más transparente (aunque también reconoció que no tiene planes de recopilar menos información de sus usuarios).

Pero centrarse únicamente en los datos robados es un error; lo importante son los modelos de comportamiento que Cambridge Analytica construyó a partir de los datos. A pesar de que la compañía afirma que en 2015 eliminó los datos en respuesta a las demandas de Facebook, todavía tiene los modelos de comportamiento que creó con ellos, así que todavía puede usarlos para dirigirse a grupos específicos de votantes con mensajes diseñados para aprovechar sus rasgos psicológicos. Aunque los conjuntos de datos robados representan una colección masiva de daños a la privacidad individual, los modelos son un daño colectivo mucho peor.

A continuación, voy a explicar que Cambridge Analytica y sus empresas matrices y hermanas fueron de las primeras en darse cuenta de que podrían convertir los algoritmos de comportamiento en una visión del mundo portátil: un modelo económicamente valioso y políticamente potente de cómo se comportan los humanos y cómo debería estructurarse la sociedad. Para entender a Cambridge Analytica, a la visión antidemocrática que representa y al comportamiento potencialmente ilegal que sus técnicas pueden hacer posible, hay que fijarse en los modelos de comportamiento.

(Para maximizar la transparencia de mis opiniones, debo informar de que he trabajado como asesor de Facebook en temas que no están relacionados directamente con esta historia).

Los datos

Primero, analicemos la información. Como se ha informado ampliamente, Global Science Research (GSR), una pequeña empresa del psicólogo cuantitativo de la Universidad de Cambridge (Reino Unido) Aleksandr Kogan, recopiló los datos originales para la compañía SCL, una empresa matriz de Cambridge Analytica. Kogan usó un cuestionario de personalidad llamado “thisismydigitallife” (esta es mi vida digital) disponible en Facebook, para obtener acceso a los perfiles de Facebook de las 270.000 personas que rellenaron el cuestionario. De esta forma, la empresa pudo usar la API de Facebook, que entonces era mucho más permisiva que hoy, para descifrar los datos de sus contactos de Facebook, supuestamente un total de 87 millones. (Eso es mucho más que los 30 millones de perfiles que SCL dice que contrató). Luego, Cambridge Analytica combinó los datos de Facebook con otros conjuntos de datos para crear perfiles sólidos e integrados de 30 millones de votantes estadounidenses.

En lo que sigue siendo un intercambio de información turbio y éticamente dudoso, parece que Kogan se defendió ante Facebook alegando que solo recopilaba la información con fines académicos, a pesar de que la página 67 de su contrato con SCL refleja un claro objetivo comercial y de que la  universidad de origen de Kogan ya advertía que su trabajo estaba claramente relacionado con fines comerciales. La reventa de esta información mediante la contratación de GSR fue una clara violación de los términos de servicio de Facebook. La red social pasó por alto las banderas rojas sobre la cantidad de datos recopilados debido a las credenciales académicas de Kogan. Pero ahora, Facebook afirma que Kogan engañó a sus trabajadores sobre sus intenciones.

Sin embargo, aunque Cambridge Analytica creó perfiles para 30 millones de votantes estadounidenses, su objetivo central no era crear anuncios dirigidos a esas personas. Más bien, los modelos que creó a partir de esa cohorte mucho más pequeña de 270.000 personas permitirían a un anunciante crear perfiles aproximados para conjuntos mucho más grandes de personas similares en Facebook. Esta capacidad es lo que permitió a la compañía crear anuncios dirigidos específicamente a pequeños grupos de votantes en función de los rasgos de personalidad. Y tanto esta capacidad como los modelos que la habilitan siguen existiendo aunque los datos de origen hayan sido borrados.

El método

La técnica de Kogan replica una innovación de los psicólogos del Centro de Psicometría de la Universidad de Cambridge Michal Kosinski y David Stillwell. Consiste en utilizar un cuestionario psicológico científicamente validado dentro del sistema API de Facebook. Al realizar el cuestionario, los usuarios permitieron que Kogan accediera a una mina de oro de datos de comportamiento, esencialmente el registro de sus “me gusta” en Facebook.

Así, Kogan pudo correlacionar ese registro de comportamiento relativamente económico con un caro análisis psicológico. Y todo gracias a las funciones de Facebook. Aunque este método era bastante nuevo cuando Cambridge Analytica se aprovechó de él en 2014, investigaciones recientes han demostrado que la publicidad comercial construida con las técnicas psicológicas de los investigadores de Cambridge es significativamente más efectiva que los anuncios no dirigidos.

El valor de estos datos se basa en el campo emergente de la psicometría digital, la ciencia de la medición cuantitativa de las características psicológicas y de la personalidad. Se supone que todas las personas encajan en una matriz de clasificaciones “altas” y “bajas” para ciertos rasgos, por lo general de los rasgos “OCEAN” o el modelo de los cinco grandes rasgos: apertura a nuevas experiencias, responsabilidad, extroversión, amabilidad e inestabilidad emocional.

Cambridge Analytica utilizó algoritmos de aprendizaje automático para descubrir las correlaciones entre estos rasgos y las conductas de las personas en Facebook. A menudo, los resultados de dicho análisis pueden parecer extraños o contradictorios. Por ejemplo, la investigación de Kosinski y Stillwell encontró que a las personas que les gustaba el cantante Tom Waits se encontraban entre las personalidades más “abiertas” y que aquellos a quienes les gusta el grupo Placebo estaban entre los más “neuróticos”.

Sin embargo, cuando esa información se combina con los conjuntos de datos de campañas tradicionales, estos perfiles contraintuitivos se vuelven mucho más útiles. Por ejemplo, gracias a los modelos Cambridge Analytica, la campaña digital del presidente estadounidense, Donald Trump, pudo identificar qué anuncios específicos microsegmentados se convertían en tendencia en pequeñas regiones geográficas pequeñas para personalidades específicas de usuarios de Facebook. Desapués, solo tenía que dirigir la campaña al mundo físico para reforzar esos mensajes en forma de un desconcertante estilo de discurso de Trump. Ese estilo de análisis de campaña sería particularmente útil para un candidato como Trump, que tendía a evitar discusiones políticas específicas y que, en cambio, improvisaba con palabras clave y temas emocionales de manera muy efectiva.

El núcleo de todo este trabajo fueron los públicos personalizados y similares de Facebook, una herramienta que permite orientar la publicidad. Esta herramienta permite que un anunciante se dirija a los usuarios de Facebook en función de parámetros muy concretos, y que busque a usuarios que “se parecen” a un tipo de perfil genético. Mediante estas herramientas de publicidad nativas (a menudo controladas por el personal de Facebook), los modelos de comportamiento construidos a partir de los datos robados de Kogan permitieron que Cambridge Analytica y la campaña digital de Trump identificaran parámetros para identificar a usuarios con los rasgos psicométricos deseables.

Esas extrañas correlaciones entre las puntuaciones de personalidad y, por ejemplo, qué grupo de música le gusta al usuario, son más efectivas de lo que podrían parecer a simple vista. Según el CEO de SCL, Alexander Nix, en un solo día la operación de datos de Trump puso a prueba 175.000 anuncios únicos en Facebook (aunque el antiguo personal de la campaña de Trump discute esto). Su objetivo no era encontrar el mejor anuncio, sino ajustar el modelo de microsegmentación a través de comentarios.

Una vez que se produce y verifica un modelo, el conjunto de datos con el que fue creado empieza a ser irrelevante. Se necesitan nuevos datos sobre los votantes para ejecutar los modelos, pero cualquier gran campaña nacional tiene esos datos. Por lo tanto, desde la perspectiva de Cambridge Analytica, era poco probable que Facebook exigiera que eliminara los datos de Kogan en 2015. Las violaciones de privacidad individuales eran reales y debían abordarse, pero los modelos seguían vigentes.

La gente

Para comprender cómo se crearon estos modelos y por qué son tan potencialmente influyentes, es necesario entender a los actores políticos que hay detrás de ellos.

Antes de que se fundara Cambridge Analytica, su empresa matriz SCL, estaba centrada en rastrear, analizar y manipular la opinión pública en el extranjero sobre los servicios militares y diplomáticos de Estados Unidos y el Reino Unido. Pero en 2013, tras el colapso digital de la campaña de Mitt Romney, Nix de SCL se presentó ante los multimillonarios contribuyentes del Partido Republicano Robert Mercer y su hija Rebekah Mercer. También estuvo presente el jefe de Breitbart News y socio comercial habitual de Mercer, Steve Bannon, que más tarde se convertiría en el director de campaña de Donald Trump.

Robert Mercer había hecho su fortuna innovando el algoritmo comercial de alta velocidad para su fondo de cobertura. Mercer había encontrado unas, encontrando pequeñas ventajas marginales en el mercado miles de millones de veces. En otras palabras, fue uno de los primeros en creer que los algoritmos tienen un gran poder para impulsar el cambio a gran escala a partir de un pequeño evento. Bannon, que ya dirigía un pequeño imperio mediático, llevaba mucho tiempo interesado en promover una agenda populista de derecha. Juntos, enfrentaron un problema que SCL podría abordar tecnológicamente: cómo hacer publicidad psicológica y contenido cultural que pareciera popular de forma natural, para dar más peso al discurso público del que realmente tenía (ver Tecnología para ganar las elecciones).

Según los informes, Mercer entregó 15 unos 12 millones de euros a una empresa conjunta con SCL, formando una compañía ficticia en diciembre de 2013 (Cambridge Analytica) con Bannon como vicepresidente. Mediante un acuerdo similar apareció AggregateIQ (AIQ), una empresa canadiense que proporcionó servicios parecidos con los mismo modelos de comportamiento (o parecidos) en EE. UU. y el Reino Unido, incluida la campaña a favor del Brexit de 2016.

El papel de Cambridge Analytica era relativamente simple: un lugar para aparcar la propiedad intelectual licenciada por SCL para su uso en las elecciones estadounidenses. ¿Qué era esa propiedad intelectual? Modelos de comportamiento que muy pronto incluirían los datos robados de Facebook. El contrato de Kogan con SCL se firmó a principios de junio de 2014 (página 67, también en la página 42) y la correspondencia filtrada de la Universidad de Cambridge indica que Kogan fue el primero en conversar con Cambridge Analytica en enero de 2014 para debatir la entrega de conjuntos de datos y modelos un mes después de la creación de la compañía.

Los modelos se crearon al integrar los datos de los conjuntos de datos existentes de consumidores y votantes, añadir nuevos datos de encuestas y los nuevos resultados de los test. Una empresa propiedad del consultor político republicano Mark Block, quien presentó a Nix a los Mercer, fue contratada para realizar encuestas. Sus acciones fueron lo suficientemente agresivas como para justificar las quejas de los consumidores (ver la queja del 29/5/14). Uno de los primeros clientes de Cambridge Analytica (página 44) fue un comité de acción política (PAC) llamado ForAmerica, cuyos principales mecenas eran los Mercer. A finales de 2014, ForAmerica fue reconodida por perfeccionar un método para usar las redes sociales para persuadir a sus millones de seguidores a participar en acciones del mundo real.

Después, Cambridge Analytica fue contratada por una serie de campañas republicanas de menor escala, como alcaldías, legislaturas estatales y carreras al Senado. Su misión consistía en hacer marketing basado en “grupos de personalidad“. Otro de sus primeros clientes fue John Bolton SuperPAC, dirigido por el actual consejero de seguridad nacional de Trump. El grupo invirtió casi un millón de euros en los servicios de votación de AIQ mientras recibía unos cuatro millones de euros de los Mercer. Entre sus productos figuran anuncios para la campaña de 2014 del senador estadounidense de Carolina del Norte Thom Tillis; los anuncios fueron adaptados a los perfiles psicográficos.

¿Por qué estas relaciones son tan importantes? Porque para un equipo que construye un modelo de comportamiento, este surtido de personajes en la órbita del Partido Republicano estadounidense podría verse, no como clientes independientes sino como fuentes similares de información para construir un modelo que pueda utilizarse en distintos procesos electorales. En otras palabras, cuantas más campañas se realicen, mejor será el modelo.

El producto

Se han publicado un montón de análisis en tono escéptico sobre el verdadero potencial de las herramientas psicográficas de SCL. En contraste con la extravagante técnica de venta que Nix hacia del método, los críticos han tendido a tildar de farsa a estas herramientas. Cuando se contrató a Cambridge Analytica para ejecutar campañas digitales, algunas operaciones básicas acabaron perjudicadas (especialmente para Ted Cruz, cuyo sitio web no pudo ser lanzado a tiempo). Y el personal de SCL a menudo se peleaba con otros trabajadores de la campaña digital de Trump.

Sin embargo, ninguno de los muchos críticos republicanos de Cambridge Analytica ha afirmado jamas que sus modelos sean inútiles. Además, algunos informes indican que los modelos se utilizaron principalmente para dirigirse a votantes en estados dudosos y para perfeccionar los discursos de Trump en esos estados. Eso demuestra que la campaña entendía que los modelos son más útiles cuando se aplican de manera segmentada. Es posible que hayan ayudado a construir la estrategia de Trump de perder a los votantes mientras se gana al colegio electoral.

Y a pesar de que tienen sus limitaciones, los perfiles de comportamiento son muy buenos para estimar datos demográficos como las tendencias políticas, el género, la ubicación y la raza. Un perfil de comportamiento basado en “me gusta” aparentemente inofensivos junto con otros conjuntos de datos crean un mapa lo suficientemente bueno para obtener mucha más información sobre un posible votante. Y también permiten predecir qué tipos de contenido pueden resultar atractivos.

En definitiva, si eliminamos el contexto de las elecciones de 2016 y las extrañas correlaciones detectadas por estos algoritmos en los datos de comportamiento de Facebook, el papel que desempeña la psicometría es bastante directo: es otro criterio entre muchos para crear grupos de votantes y aprender de los comentarios para entender cómo responde cada grupo ante los anuncios.

Sin embargo, la psicografía tiene consecuencias más siniestras para la democracia que la segmentación demográfica tradicional utilizada por las campañas políticas. El matemático y emprendedor de la privacidad Paul-Olivier Dehaye, quien ha seguido de cerca las operaciones de SCL, me dijo que cree que los modelos psicométricos permiten a Cambridge Analytica convertir las herramientas de audiencia personalizadas de Facebook en una herramienta para “encontrar usuarios con psicología similar”. El profesor estadounidense David Carroll, que demandó a Cambridge Analytica bajo las leyes de privacidad de datos del Reino Unido, dijo que la compañía estaba haciendo un “muestreo masivo” del electorado al “emparejar archivos de votantes para hacerlos públicos y compilar [perfiles] enriquecidos con datos comerciales” en busca de segmentos de población que podrían ser influidos.

Y en el testimonio  (minuto 11:57) que el exempleado de Cambridge Analytica Christopher Wylie dio ante el Parlamento del Reino Unido en marzo sobre sus prácticas de recopilación de datos, el extrabajador reveló que la campaña de Trump quería usar la psicometría para remover “demonios internos” de la gente.

Wylie afirmó: “Si puede crear un perfil psicológico de una persona que es más propensa a adoptar ciertas formas de ideas, como conspiraciones, por ejemplo, y puede crear un perfil de cómo se ve esa persona en términos de datos, puede predecir la probabilidad de que alguien se crea un mensaje conspiranoico. Luego puede dirigirse a este tipo de gente con publicidad, blogs o sitios web, o lo que todos llaman ahora bulos, para que comiencen a ver todas estas ideas e historias a su alrededor en su entorno digital”.

Según Wylie, el contenido de SCL fue sorprendentemente efectivo. Una medida clave de éxito para el marketing online es la “tasa de conversión”, el porcentaje de personas que realizan una acción, como hacer una compra o registrarse para obtener una lista, después de ver un anuncio. En el marketing comercial online habitual, se considera que una tasa de conversión tiene éxito cuando está entre el 1 % y el 2 %. Wylie afirmó (minuto 11:47 del testimonio) que SCL obtenía tasas de conversión de entre el 5 % y el 7 % de forma habitual, y que incluso llegó a obtener tasas de hasta el 10 %. Esto coincide con varios estudios que muestran que la activación emocional impulsa el compromiso online y las plataformas digitales recompensan ese compromiso con más visibilidad y / o ingresos.

Es probable que estos “anuncios oscuros” (dark ads) solo llegaran a un pequeño número de personas, y es probable que su contenido no tenga nada que ver con el material de campaña que aparece en la televisión o en la prensa. Ni la ley electoral de EE. UU. ni la política de Facebook obligan a hacer pública este tipo de información. Aunque Facebook ha aireado los anuncios oscuros y socialmente explosivos que supuestamente fueron comprados por campañas de manipulación rusas, no hizo lo mismo con los comprados por alguna campaña política o PAC estadounidense del ciclo electoral de 2016.

En general, esto significa que, independientemente de los fallos que tengan los métodos de Cambridge Analytica, las campañas digitales de Trump pueden haber utilizado con éxito modelos algorítmicos creados a partir de datos robados de Facebook para aprovecharse de las vulnerabilidades paranoicas de una cohorte relativamente pequeña de usuarios de Facebook en regiones de importancia electoral. Es un objetivo modesto pero real y potencialmente capaz de alterar el resultado de unas elecciones.

Hace poco, Facebook anunció que iba a realizar cambios de forma voluntaria para eliminar una buena parte del ecosistema político de anuncios oscuros de su plataforma, y ​​la ley de Anuncios Honestos propuesta en el Senado estadounidense haría lo mismo a través de internet. Pero aunque estos cambios harán que la publicidad política sea más transparente, no van eliminar el potencial de los modelos de Cambridge Analytics. Seguirá siendo posible microsegmentar anuncios a partir de perfiles psicométricos.

Cuestiones legales

Debido a que el valor económico real reside en los modelos, no los datos, y a que los modelos son fáciles de transportar, psurgen varias preguntas relacionadas con las leyes de financiación de campañas en EE. UU.

En primer lugar, las organizaciones respaldadas por Mercer estaban, al mismo tiempo, financiando y obteniendo ingresos con los modelos de comportamiento. Por ejemplo, la PAC ForAmerica pagó a Cambridge Analytica por sus servicios. Este acuerdo enturbia el valor económico de los modelos y puede ocultar donaciones en especie no registradas. ¿Los precios cobrados por estos servicios representan el valor de mercado justo para la investigación y el desarrollo detrás de los modelos?

Foto: Marck Zuckerberg. Crédito: Facebook.

En segundo lugar, el testimonio de Wylie (minutos 11:15, 13:32 y 13:41) alegaba que existía un marco de “franquicia” diseñado para evitar las leyes electorales, incluidas aquellas que impiden a los ciudadanos extranjeros realizar elecciones en Estados Unidos. Como informó Gizmodo, el código de acceso público muestra que AIQ, la empresa de Canadá, creó el proyecto de administración de datos del Partido Republicano estadounidense a partir de los datos robados de Facebook. ¿Exigirá Facebook que el Comité Nacional Republicano (RNC) de EE.UU. cierre el proyecto y elimine los modelos que los ciudadanos extranjeros construyeron con datos robados de una corporación estadounidense?

En tercer lugar, debido a que la propiedad intelectual central del asunto son los modelos algorítmicos propiedad de SCL/Cambridge Analytica/AIQ, es casi seguro que el mismo modelo o uno parecido se está utilizando en múltiples campañas. Según la ley de EE. UU., los comités de acción política y las campañas no pueden coordinar estrategias, personal ni gastos. Pero un algoritmo de aprendizaje automático aprende de forma paulatina a partir  de los conjuntos de datos a los que está expuesto, independientemente de los límites legales. Si las campañas y los PAC utilizan los mismos modelos, ¿se están coordinando de forma asíncrona en las decisiones básicas de campaña y las actividades de recopilación de datos?

Tanto Cambridge Analytica como la campaña Trump dicen que los archivos de los votantes de la Convención Nacional Republicana eran la base de datos registrada, pero que Cambridge Analytica era la “inteligencia en la parte superior” del archivo del votante. En una entrevista con la BBC, Nix afirmó que, aunque la campaña de Trump “comenzó de nuevo” con nuevos datos, se usaron “modelos de comportamiento heredados” en todos los ciclos de campaña y entre campañas, incluidas las campañas de Cruz y Trump. Como podemos ver ahora, esos modelos eran legados de campañas previas de republicanos, incluidos PAC como el de John Bolton. Y ahora pueden estar en manos de Emerdata, una nueva compañía fantasma creada el otoño pasado por los Mercer y Nix. Cambridge Analytica afirmó recientemente que destruyó inmediatamente todos los datos sin procesar y “cualquiera de sus derivados en el sistema”, pero no está claro si eso también incluye a los modelos derivados. Facebook tampoco ha mencionado públicamente ninguna iniciativa para destruir esos modelos.

Las consecuencias para la democracia

La democracia, en su forma menos cínica, es la posibilidad de una racionalidad colectiva sobre el gobierno compartido. Los anuncios oscuros, microsegmentados y adaptados psicológicamente, convierten a cada espectador en un miembro del electorado. El desacuerdo y el debate se presentan solo como estados emocionales en lugar de como un aspecto estatégico de la vida cívica. Los algoritmos de comportamiento utilizados por Cambridge Analytica causan daño colectivo porque socavan la posibilidad de una toma de decisiones colectiva al hacer que sea imposible observar las realidades de los demás. De esa manera, las personas que pueden permitirse gastar millones de euros en modelar a un electorado entero mediante datos robados de una de las corporaciones más influyentes del mundo pueden convertir un algoritmo en una visión del mundo para llevar.

El viaje de estos modelos de comportamiento nos muestra la relación concreta entre los principales actores detrás de Cambridge Analytica, y plantea preguntas importantes sobre si la leyes electorales actuales son capaces de controlar la era de las elecciones electorales algorítmicas. Si Cambridge Analytica realmente inclinó la balanza a favor de Trump, esto que hemos visto hasta ahora es solo un ensayo para estos modelos. Cada vez que surjan nuevos conjuntos de datos, cada vez que pueden refinarse y reutilizarse y pasarse a una nueva organización, estarán haciendo otro experimento.

Al igual que cualquier experimento, este podría ser un fracaso. Pero la defensa de las normas e instituciones democráticas necesitan aumentar su resistencia contra tales herramientas iterativas sin importar quién las use. No basta con proteger los datos personales. Necesitamos proteger la posibilidad de la racionalidad colectiva. Como declaró Dehaye (14:14), el enfoque en la persuasión individual a través de los datos personales omite el daño colectivo. Siga los modelos, porque ahí es donde se encuentran los daños colectivos.

*Jacob Metcalf es un investigador de ética tecnológica en Data & Society y el proyecto Pervade, y un consultor para compañías de tecnología en Ethical Resolve.