Artículos Tecnología (general)

Por qué está fallando la búsqueda de un mecanismo de intercambio de datos que preserve la privacidad

Desde la banca hasta la comunicación, nuestra vida cotidiana moderna está impulsada por datos con preocupaciones constantes sobre la privacidad. Ahora, un nuevo artículo de EPFL publicado en Nature Computational Science argumenta que muchas promesas hechas en torno a los mecanismos de preservación de la privacidad nunca se cumplirán y que debemos aceptar estos límites inherentes y no perseguir lo imposible.

La innovación basada en datos en forma de medicina personalizada, mejores servicios públicos o, por ejemplo, una producción industrial más ecológica y eficiente promete traer enormes beneficios para las personas y nuestro planeta, y el acceso generalizado a los datos se considera esencial para impulsar este futuro. Sin embargo, las prácticas agresivas de recopilación y análisis de datos hacen sonar la alarma sobre los valores sociales y los derechos fundamentales.

Como resultado, cómo ampliar el acceso a los datos y salvaguardar la confidencialidad de la información personal confidencial se ha convertido en uno de los desafíos más frecuentes para liberar el potencial de las tecnologías basadas en datos y un nuevo documento del Laboratorio de Ingeniería de Seguridad y Privacidad de EPFL (SPRING) en la Facultad de Ciencias de la Computación y la Comunicación argumenta que la promesa de que cualquier uso de datos se puede resolver tanto con una buena utilidad como con privacidad es similar a perseguir el arcoíris.

La jefa del laboratorio SPRING y coautora del artículo, la profesora asistente Carmela Troncoso, dice que existen dos enfoques tradicionales para preservar la privacidad: “Está el camino de usar la criptografía para preservar la privacidad, procesar los datos en un dominio descifrado y obtener una resultado. Pero la limitación es la necesidad de diseñar algoritmos muy específicos y no solo realizar cálculos genéricos”.

El problema con este tipo de tecnología de preservación de la privacidad, argumenta el documento, es que no resuelven uno de los problemas clave más relevantes para los profesionales: cómo compartir datos de alta calidad a nivel individual de una manera que preserve la privacidad pero permita analistas para extraer el valor total de un conjunto de datos de una manera muy flexible.

La segunda vía que intenta resolver este desafío es la anonimización de los datos, es decir, la eliminación de nombres, ubicaciones y códigos postales pero, argumenta Troncoso, a menudo el problema son los datos en sí. “Hay un ejemplo famoso de Netflix en el que la compañía decidió publicar conjuntos de datos y realizar una competencia pública para producir mejores algoritmos de ‘recomendación’. Eliminó los nombres de los clientes, pero cuando los investigadores compararon las calificaciones de películas con otras plataformas donde las personas califican películas, pudieron para quitar el anonimato a las personas”.

Más recientemente, los datos sintéticos surgieron como una nueva técnica de anonimización; sin embargo, el documento sugiere que, en contraste con las promesas hechas por sus defensores, está sujeto a las mismas compensaciones de privacidad/utilidad que la anonimización tradicional de datos. “Como decimos en nuestro artículo, los investigadores y los profesionales deben aceptar la compensación inherente entre la alta flexibilidad en la utilidad de los datos y las sólidas garantías en torno a la privacidad”, dijo Theresa Stadler, asistente de doctorado en SPRING Lab y coautora del artículo.

“Esto bien puede significar que el alcance de las aplicaciones basadas en datos debe reducirse y los titulares de datos deberán tomar decisiones explícitas sobre el enfoque de intercambio de datos más adecuado para su caso de uso”, continuó Stadler.

Otro mensaje clave del documento es la idea de una liberación de tecnología más lenta y controlada. Hoy en día, la implementación ultrarrápida es la norma con una mentalidad de “lo arreglaremos más tarde” si las cosas salen mal, un enfoque que Troncoso cree que es muy peligroso, “Necesitamos empezar a aceptar que hay límites. ¿Realmente queremos ¿Continuar con estos datos gratuitos para todos donde no hay privacidad y con grandes impactos en la democracia? Es como el Día de la Marmota, hemos estado hablando de esto durante 20 años y ahora está sucediendo lo mismo con el aprendizaje automático. Ponemos algoritmos por ahí. , son parciales y la esperanza es que luego se arreglen. Pero, ¿y si no se pueden arreglar?”.

Sin embargo, la funcionalidad estrecha y la alta privacidad no son el modelo comercial de los gigantes tecnológicos y Troncoso insta a que todos pensemos más detenidamente sobre cómo abordan este problema crítico.

“Muchas de las cosas que Google y Apple hacen es esencialmente encubrir sus prácticas dañinas y cerrar el mercado. Por ejemplo, Apple no permite que las aplicaciones recopilen información, sino que recopila los datos en una forma llamada de ‘preservación de la privacidad’ y luego vende Lo que estamos diciendo es que no hay forma de preservar la privacidad. La pregunta es: “¿La tecnología evitó que el sistema se dañara o simplemente hizo que el sistema fuera igualmente dañino? La privacidad en sí misma no es un objetivo, la privacidad es un medios para protegernos”, concluye Troncoso.

Via