Redes Sociales

Cómo envenenar los datos que usa “Big Tech” para vigilarlo

Todos los días, su vida deja un rastro de migas de pan digitales que los gigantes tecnológicos utilizan para rastrearlo. Envíar un correo electrónico, pedir algo de comida, transmitir un programa. Reciben valiosos paquetes de datos para comprender mejor sus preferencias. Esos datos se introducen en algoritmos de aprendizaje automático para dirigirte a ti con anuncios y recomendaciones. Google cobra sus datos por más de $ 120 mil millones al año de ingresos publicitarios.

Cada vez más, ya no podemos optar por no participar en este acuerdo. En 2019, Kashmir Hill, entonces reportera de Gizmodo, trató de eliminar a cinco grandes gigantes tecnológicas de su vida. Pasó seis semanas sintiéndose miserable, luchando por realizar funciones digitales básicas. Mientras tanto, los gigantes tecnológicos ni siquiera sintieron picazón.

Ahora, los investigadores de la Universidad Northwestern están sugiriendo nuevas formas de corregir este desequilibrio de poder tratando nuestros datos colectivos como moneda de cambio. Los gigantes de la tecnología pueden tener algoritmos sofisticados a su disposición, pero no tienen sentido sin suficientes datos correctos para entrenar.

En un nuevo artículo que se presentará en la conferencia de Equidad, Responsabilidad y Transparencia de la Association for Computing Machinery la próxima semana, los investigadores, incluidos los estudiantes de doctorado Nicholas Vincent y Hanlin Li, proponen tres formas en que el público puede aprovechar esto en su beneficio:

  • Huelgas de datos, inspiradas en la idea de huelgas laborales, que implican retener o eliminar sus datos para que una empresa de tecnología no pueda usarlos, por ejemplo, dejar una plataforma o instalar herramientas de privacidad.
  • Envenenamiento de datos, que implica aportar datos dañinos o sin sentido. AdNauseam, por ejemplo, es una extensión de navegador que hace clic en cada anuncio que se le ofrece, lo que confunde los algoritmos de orientación de anuncios de Google.
  • Aportación de datos conscientes, que consiste en dar datos significativos para el competidor de una plataforma a la que desea protestar, como por la posibilidad de subir sus fotos de Facebook a Tumblr en su lugar.

La gente ya utiliza muchas de estas tácticas para proteger su propia privacidad. Si alguna vez usó un bloqueador de anuncios u otra extensión de navegador que modifica los resultados de su búsqueda para excluir ciertos sitios web, se ha involucrado en la captura de datos y ha reclamado alguna agencia sobre el uso de sus datos. Pero como descubrió Hill, las acciones individuales esporádicas como estas no hacen mucho para que los gigantes tecnológicos cambien sus comportamientos.

Sin embargo, ¿qué pasaría si millones de personas se coordinaran para envenenar bien los datos de un gigante tecnológico? Eso podría darles algo de influencia para hacer valer sus demandas.

Puede que ya haya algunos ejemplos de esto. En enero, millones de usuarios eliminaron sus cuentas de WhatsApp y pasaron a competidores como Signal y Telegram después de que Facebook anunciara que comenzaría a compartir datos de WhatsApp con el resto de la empresa. El éxodo hizo que Facebook retrasara sus cambios de política.

Google también anunció que dejaría de rastrear a las personas en la web y de orientar anuncios a ellas. Si bien no está claro si se trata de un cambio real o simplemente un cambio de marca, dice Vincent, es posible que el mayor uso de herramientas como AdNauseam contribuyó a esa decisión al degradar la efectividad de los algoritmos de la compañía. (Por supuesto, en última instancia, es difícil de decir. “La única persona que realmente sabe con qué eficacia un movimiento de apalancamiento de datos afectó a un sistema es la empresa de tecnología”, dice.

Vincent y Li creen que estas campañas pueden complementar estrategias como la promoción de políticas y la organización de los trabajadores en el movimiento para resistir a las grandes tecnologías.

“Es emocionante ver este tipo de trabajo”, dice Ali Alkhatib, investigador del Centro de Ética de Datos Aplicados de la Universidad de San Francisco, que no participó en la investigación. “Fue realmente interesante verlos pensar en la visión colectiva u holística: podemos meternos con el pozo y hacer demandas con esa amenaza, porque son nuestros datos y todo va junto a este pozo”.

Aún queda trabajo por hacer para que estas campañas sean más generalizadas. Los informáticos podrían desempeñar un papel importante en la creación de más herramientas como AdNauseam, por ejemplo, que ayudarían a reducir la barrera para participar en tales tácticas. Los formuladores de políticas también podrían ayudar. Las huelgas de datos son más efectivas cuando están reforzadas por fuertes leyes de privacidad de datos, como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que otorga a los consumidores el derecho a solicitar la eliminación de sus datos. Sin dicha regulación, es más difícil garantizar que una empresa de tecnología le dé la opción de borrar sus registros digitales, incluso si elimina su cuenta.

Y quedan algunas preguntas por responder. ¿Cuántas personas necesita un ataque de datos para dañar el algoritmo de una empresa? ¿Y qué tipo de datos serían más eficaces para envenenar un sistema en particular? En una simulación que involucraba un algoritmo de recomendación de películas, por ejemplo, los investigadores encontraron que si el 30% de los usuarios se declaraban en huelga, podría reducir la precisión del sistema en un 50%. Pero cada sistema de aprendizaje automático es diferente y las empresas los actualizan constantemente. Los investigadores esperan que más personas en la comunidad de aprendizaje automático puedan ejecutar simulaciones similares de los sistemas de diferentes empresas e identificar sus vulnerabilidades.

Alkhatib sugiere que los académicos deberían investigar más sobre cómo inspirar también la acción de datos colectivos. “La acción colectiva es realmente difícil”, dice. “Lograr que las personas sigan adelante con las acciones en curso es un desafío. Y luego está el desafío de cómo mantener a un grupo de personas que son muy transitorias (en este caso, podrían ser personas que usan un motor de búsqueda durante cinco segundos) para que se vean a sí mismos como parte de una comunidad que realmente tiene longevidad “.

Estas tácticas también pueden tener consecuencias posteriores que requieren un examen cuidadoso, agrega. ¿Podría el envenenamiento de datos terminar agregando más trabajo para los moderadores de contenido y otras personas encargadas de limpiar y etiquetar los datos de capacitación de las empresas?

Pero en general, Vincent, Li y Alkhatib son optimistas de que el apalancamiento de datos podría convertirse en una herramienta persuasiva para dar forma a cómo los gigantes tecnológicos tratan nuestros datos y nuestra privacidad. “Los sistemas de inteligencia artificial dependen de los datos. Es solo un hecho sobre cómo funcionan ”, dice Vincent. “En última instancia, esa es una forma en que el público puede ganar poder”.

Fuente: Technology Review