Artículos

¿Cuánto valen sus datos para las empresas de tecnología? Los legisladores (de EEUU) quieren decírselo, pero no es tan fácil de calcular.

por Samuel Lengen

La nueva legislación propuesta por los senadores estadounidenses Mark R. Warner y Josh Hawley busca proteger la privacidad obligando a las empresas tecnológicas a revelar el “verdadero valor” de sus datos a los usuarios.

En concreto, las empresas con más de 100 millones de usuarios tendrían que proporcionar a cada usuario una evaluación del valor financiero de sus datos, así como revelar los ingresos generados por “obtener, recoger, procesar, vender, utilizar o compartir los datos de los usuarios“. Además, la Ley DASHBOARD daría a los usuarios el derecho a eliminar sus datos de las bases de datos de las empresas.

Como investigador que explora las implicaciones éticas y políticas de las plataformas digitales y los grandes datos, simpatizo con la ambición del proyecto de ley de aumentar la transparencia y potenciar a los usuarios. Sin embargo, estimar el valor de los datos de los usuarios no es sencillo y, en mi opinión, no resolverá los problemas de privacidad.

Recolectores de datos

Los datos recogidos por las empresas de tecnología no sólo consisten en información de identificación tradicional como el nombre, la edad y el sexo. Más bien, como ha señalado la historiadora de Harvard Rebecca Lemov, incluye “Tweets, likes de Facebook, Twitches, búsquedas en Google, comentarios en línea, compras con un solo clic, e incluso ver -pero saltar- una fotografía en tu feed“.

En otras palabras, los grandes datos contienen los momentos mundanos pero íntimos de la vida de las personas. Y, si Facebook capta tus interacciones con amigos y familiares, Google tus búsquedas nocturnas, y Alexa tu sala de estar, ¿no te gustaría saber, como sugiere el proyecto de ley, lo que tus “datos valen y a quién se venden“?

Sin embargo, calcular el valor de los datos de los usuarios no es tan sencillo. Las estimaciones sobre el valor de los datos de los usuarios varían ampliamente. Incluyen evaluaciones de menos de un dólar para los datos de una persona promedio hasta 100 dólares más generosos para un usuario de Facebook. Un usuario vendió sus datos por 2.733 dólares en Kickstarter. Para lograr este número, tuvo que compartir datos como las pulsaciones de teclas, los movimientos del ratón y las frecuentes capturas de pantalla.

Lamentablemente, la Ley DASHBOARD no especifica cómo estimaría el valor de los datos de los usuarios. En su lugar, explica que la Securities and Exchange Commission, una agencia independiente del gobierno federal, “desarrollará un método o métodos para calcular el valor de los datos de los usuarios“. Creo que la comisión se dará cuenta rápidamente de que estimar el valor de los datos de los usuarios es una tarea difícil.

Un estudio estimó que el perfil de Facebook de un usuario valía unos 100 dólares.

Más que personal

La legislación propuesta tiene por objeto aumentar la transparencia de los usuarios. Sin embargo, la privacidad ya no es sólo una cuestión de datos personales. Los datos compartidos por unos pocos pueden proporcionar información sobre la vida de muchos.

Los gustos de Facebook, por ejemplo, pueden ayudar a predecir la orientación sexual de un usuario con un alto grado de precisión. Target ha utilizado sus datos de compra para predecir qué clientes están embarazadas. El caso recibió amplia atención después de que el minorista descubrió que una adolescente estaba embarazada antes que su padre.

Esta capacidad de predicción significa que la información privada no sólo está contenida en los datos de los usuarios. Las empresas también pueden inferir su información privada, basándose en las correlaciones estadísticas de los datos de varios usuarios. ¿Cómo puede reducirse el valor de estos datos a un valor individual en dólares? Es más que la suma de sus partes.

Además, esta capacidad de utilizar el análisis estadístico para identificar a las personas como pertenecientes a una categoría de grupo puede tener implicaciones de gran alcance para la privacidad. Si los proveedores de servicios pueden utilizar el análisis predictivo para adivinar la orientación sexual, la raza, el género y las creencias religiosas de un usuario, ¿qué les impide discriminar sobre esa base?

Una vez liberadas, las tecnologías predictivas seguirán funcionando incluso si los usuarios eliminan su parte de los datos que ayudaron a crearlas.

Control a través de datos

La sensibilidad de los datos depende no sólo de lo que contienen, sino también de cómo los gobiernos y las empresas pueden utilizarlos para ejercer influencia.

Esto es evidente en mi investigación actual sobre el sistema de crédito social planificado de China. El gobierno chino planea utilizar bases de datos nacionales y “índices de fiabilidad” para regular el comportamiento de los ciudadanos chinos.

El “capitalismo de vigilancia” de Google, Amazon y Facebook, como ha argumentado la autora Shoshana Zuboff, también utiliza datos predictivos para “afinar y dirigir nuestro comportamiento hacia los resultados más rentables“.

En 2014, las revelaciones sobre cómo Facebook experimentó con su alimentación para influir en el estado emocional de los usuarios terminaron en una protesta pública. Sin embargo, esta instancia acaba de hacer visible cómo las plataformas digitales, en general, pueden utilizar los datos para mantener a los usuarios interesados y, en el proceso, generar más datos.

La privacidad de datos tiene que ver tanto con la capacidad de las grandes empresas de tecnología para dar forma a su vida personal como con lo que saben de usted.

El sistema de crédito social de China utilizará datos de Internet para evaluar el comportamiento de una persona.

Quién es perjudicado

La verdad es que la dataficación, con todas sus implicaciones para la privacidad, no afecta a todos por igual.

Los sesgos ocultos de los grandes datos y la discriminación en red siguen reproduciendo desigualdades en torno al género, la raza y la clase. Las mujeres, las minorías y los pobres económicamente son los más afectados. La profesora de UCLA Safiya Umoja Noble, por ejemplo, ha mostrado cómo las clasificaciones de búsqueda de Google refuerzan los estereotipos negativos sobre las mujeres de color.

A la luz de esta desigualdad, ¿cómo podría un valor numérico capturar el valor “verdadero” de los datos de los usuarios?

La falta de especificidad de las legislaciones propuestas es desconcertante. Sin embargo, aún más preocupante podría ser su insistencia en que la transparencia de los datos se logrará revelando únicamente el valor monetario. Las evaluaciones numéricas del valor financiero no reflejan el poder de los datos para predecir nuestras acciones o guiar nuestras decisiones.

El objetivo de la Ley DASHBOARD es hacer que el negocio de los datos sea más transparente y potenciar a los usuarios. Sin embargo, creo que no cumplirá esta promesa. Si los legisladores quieren abordar el tema de la privacidad de los datos, necesitan regular no sólo la monetización de los datos, sino también, de manera más amplia, el valor y el costo de los datos en la vida de las personas.

Interferencia también hizó una versión.