Artículos

Reconocimiento facial y escenarios de futuro

Cada vez más noticias apuntan a la popularización y ubicuidad de las tecnologías de reconocimiento facial, en una variedad de ámbitos cada vez mayor. Desde ciudades de todo el mundo erizadas de cámaras, hasta el extremo de control social de las ciudades chinas, en las que en las que no puedes hacer nada sin que tus pasos, las personas con las que estás o los sitios por los que pasas sean almacenados en una base de datos que monitoriza tus costumbres, tus compañías o tu crédito social, pases por delante de una cámara o por delante de las gafas de un policía.

Pero más allá de las calles de nuestras ciudades, las cámaras y el reconocimiento facial empiezan a ser, cada vez más, utilizadas en otros ámbitos. La última polémica ha saltado a partir de las escuelas norteamericanas que intentan prevenir posibles episodios de violencia, probablemente de manera infructuosa dado que los protagonistas suelen ser alumnos del propio centro con acceso autorizado a sus instalaciones: sociedades de defensa de los derechos civiles como ACLU se han posicionado abiertamente en contra de este tipo de sistemas, que consideran inaceptables en un entorno escolar por ser invasivas y con numerosos errores que tienden a afectar especialmente a mujeres y a personas de color.

En las escuelas chinas, un entorno violencia completamente inexistente, no utilizan esta tecnología con ese motivo, sino con uno completamente diferente: monitorizar el rendimiento y la atención de los estudiantes. En varias escuelas piloto, los estudiantes saben que si sus expresiones muestran aburrimiento o si se duermen, sus clases están llenas de cámaras capaces no solo de tomar una prueba gráfica de ello, sino de interpretarlo y etiquetarlo además con los algoritmos adecuados. En algunos ámbitos se especula incluso con la posibilidad de llegar algo más allá, y probar la eficiencia de otra familia de tecnologías, las de vigilancia emocional, ya en uso en el ejército chino y en varias compañías privadas, que sitúan sensores inalámbricos en gorras o sombreros y son capaces, mediante una lectura de las ondas cerebrales, de optimizar cuestiones como las pausas en el trabajo, la reasignación de tareas o la localización física dentro de las instalaciones, y prometen a cambio importantes incrementos de eficiencia.

¿Estamos yendo hacia un futuro de monitorización permanente mediante tecnologías de este tipo? Algunos abiertamente afirman que las tecnologías de reconocimiento facial están aquí para quedarse, y que lo mejor que podríamos hacer es, sencillamente, aceptarlo como un elemento más de las sociedades del futuro. Actitudes tecno-fatalistas de este tipo asumen que incentivos de adopción como los generados por el miedo o por los posibles incrementos de productividad son tan poderosos, que la sociedad no puede dejar de plantearse dejar a un lado sus temores y resistencias, y proceder a la implantación, oficializando la aceptación por la vía de los hechos. En realidad, hablamos de una tecnología por la que nadie va a preguntar a los ciudadanos, y de decisiones de adopción que dependerán, en último término, de gobiernos, autoridades municipales o departamentos de educación. La resistencia pasiva mediante elementos como gafassombreros u otros elementos parece fútil, lo que podría determinar un futuro de adopción con más bien escasas resistencias.

¿Qué hacer si, en efecto, este tipo de tecnologías se disponen, de manera irremediable, a formar una parte integrante de nuestro futuro? ¿Debemos, como instituciones educativas, aceptarlo como tal y proceder a su implantación? Si ese es el caso, entiendo que es fundamental llevar a cabo una reflexión sobre cuál va a ser su papel. En IE Business School, por ejemplo, coincidiendo con el desarrollo de nuestra WoW Room, un aula interactiva con 45 metros cuadrados de pantallas en las que los estudiantes participan en remoto, probamos un algoritmo de engagement, que permite al profesor diagnosticar qué alumnos están prestando atención y cuales están aburridos o distraídos. Los resultados iniciales de su uso, aunque podríamos pensar que algunas resistencias podrían desaarecer con la costumbre y el uso habitual, apuntaron a que los alumnos no se sentían cómodos conociendo la existencia de una herramienta así que pudiese, eventualmente, afectar a sus calificaciones, así que resolvimos utilizarla fundamentalmente como una alerta en tiempo real al profesor: si mientras das tu clase, ves que el número de alumnos aburridos o distraídos se incrementa en algún momento, es que ese contenido, esa parte de la discusión o ese elemento que estás utilizando no está funcionando, y deberías pasarlo más rápidamente o solucionar esa falta de atractivo del contenido de alguna manera.

¿Cómo nos afectaría el uso de cámaras, sistemas de monitorización de ondas cerebrales o algoritmos de ese tipo en entornos de trabajo? En una situación como la actual, cabe esperar que serían utilizados para el control exhaustivo o incluso para sanciones o exclusión de aquellos que son evaluados negativamente. Sin embargo, cabe pensar en otro tipo de entornos con muchos más matices: un trabajador aburrido o distraído no necesariamente implica un trabajador no productivo, sino que puede indicar muchas otras circunstancias. Entornos sometidos a un control de este tipo ya existen, como hace una semana comentaba David Bonilla en una de sus newsletters: en compañías como Crossover, un supervisor evalúa constantemente cada período de trabajo de diez minutos de sus subordinados en función de herramientas de monitorización como WorkSmart, que recopilan estadísticas sobre las aplicaciones y sitios web que tienes abiertos, el timepo que pasas en ellos, tus pulsaciones de teclado y movimientos de ratón y que, cada 10 minutos, aleatoriamente y sin previo aviso, toma una foto desde la cámara del portátil y guarda una captura de lo que tengas en pantalla. Más de 1,500 personas en 80 países colaboran con esta compañía sometidos a la monitorización de esta herramienta, en las que la compañía paga únicamente el tiempo que considera de dedicación plena, no las pausas ni los momentos de distracción.

En escenarios de futuro en los que el trabajo cambia su naturaleza y se convierte en algo voluntario, vocacional o que no forma parte de una obligación necesaria para la subsistencia gracias al desarrollo de sistemas de renta básica incondicional, este tipo de herramientas podrían facilitar sistemas de compensación basados en criterios que optimicen la productividad: si el análisis de un trabajador revela que está somnoliento o distraído, envíalo a dormir o a hacer otra cosa hasta que muestre un incremento en sus capacidades productivas, y optimiza su rendimiento. ¿Aceptable, o una auténtica pesadilla distópica? ¿Nos aboca el futuro necesariamente a un escenario en el que el uso de tecnologías de reconocimiento facial, expresiones o incluso análisis de ondas cerebrales nos ubique en entornos de vigilancia y monitorización permanente? ¿Debe la formación incorporar ese tipo de tecnologías para facilitar una familiarización con ellas y un uso adecuado y conforme a unos estándares éticos? ¿Debemos las instituciones educativas a todos los niveles intentar preparar a nuestros alumnos para unos escenarios futuros que parecen cada vez más reales, más tangibles y más inevitables? ¿O debemos ignorarlos como si esa adopción tecnológica no estuviese teniendo lugar? ¿Existen alternativas?

Fuente