Artículos

Una nueva herramienta de detección de deepfakes debería mantener a los líderes mundiales a salvo, por ahora

Un video producido por la IA podría mostrar a Donald Trump diciendo o haciendo algo extremadamente escandaloso e incendiario. Sería demasiado creíble y, en el peor de los casos, podría influir en una elección, desencadenar la violencia en las calles o desencadenar un conflicto armado internacional.

Afortunadamente, una nueva técnica forense digital promete proteger al Presidente Trump, a otros líderes mundiales y a celebridades contra los deepfakes, al menos por el momento. El nuevo método utiliza el aprendizaje automático para analizar el estilo de habla y movimiento de un individuo específico, lo que los investigadores llaman una “firma softbiométrica”.

Los investigadores, de la Universidad de California en Berkeley y la Universidad del Sur de California, usaron una herramienta existente para extraer los movimientos de la cara y la cabeza de los individuos. También crearon sus propias deepfakes para Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren y Hillary Clinton utilizando redes de confrontación generativas.

A continuación, el equipo utilizó la máquina de aprendizaje para distinguir los movimientos de la cabeza y la cara que caracterizan a la persona real. Estas señales sutiles -la forma en que Bernie Sanders asiente con la cabeza mientras dice una palabra en particular, tal vez, o la forma en que Trump sonríe después de una reaparición- no están actualmente modeladas por algoritmos de deepfakes.

En los experimentos, la técnica tenía una precisión de al menos el 92% en la detección de varias variaciones de falsificaciones profundas, incluidos los intercambios de caras y aquellos en los que un imitador utiliza una marioneta digital. También fue capaz de tratar los artefactos en los archivos que provienen de la recompresión de un vídeo, lo que puede confundir otras técnicas de detección. Los investigadores planean mejorar la técnica teniendo en cuenta también las características del habla de una persona. La investigación, que fue presentada en una conferencia sobre visión por computador en California esta semana, fue financiada por Google y DARPA, un ala de investigación del Pentágono. DARPA está financiando un programa para diseñar mejores técnicas de detección.

El problema al que se enfrentan los líderes mundiales (y todos los demás) es que se ha vuelto ridículamente sencillo generar falsificaciones de vídeo con inteligencia artificial. Las noticias falsas, los informes falsos de los medios de comunicación social y los videos falsificados ya han socavado la cobertura y el discurso de las noticias políticas. Los políticos están especialmente preocupados de que se puedan utilizar medios de comunicación falsos para sembrar desinformación durante las elecciones presidenciales de 2020.

Ya se han producido algunas herramientas para la captura de vídeos falsos, pero los falsificadores se han adaptado rápidamente. Por ejemplo, durante un tiempo fue posible detectar una falsificación profunda rastreando los movimientos de los ojos del hablante, lo que tendió a ser antinatural en los deepfakes. Poco después de que se identificó este método, sin embargo, se modificaron los algoritmos de deepfake para incluir un mejor parpadeo.

“Estamos siendo testigos de una carrera armamentista entre las manipulaciones digitales y la capacidad de detectarlas, y los avances de los algoritmos basados en la IA están catalizando a ambas partes”, dice Hao Li, un profesor de la Universidad del Sur de California que ayudó a desarrollar la nueva técnica. Por esta razón, su equipo aún no ha publicado el código detrás del método.

Li dice que será particularmente difícil para los fabricantes de deepfakes adaptarse a la nueva técnica, pero admite que probablemente lo harán con el tiempo. “El siguiente paso para evitar esta forma de detección sería sintetizar los movimientos y comportamientos basados en observaciones previas de esta persona en particular”, dice.

Li también dice que a medida que los deepfakes son más fáciles de usar y más poderosos, puede ser necesario que todos consideren protegerse. “Las celebridades y las figuras políticas han sido los principales objetivos hasta ahora”, dice. “Pero no me sorprendería si en un año o dos, los humanos artificiales que parecen indistinguibles de los reales pueden ser sintetizados por cualquier usuario final.”

Via