Artículos

Lo que nos faltaba: llegan los vídeos deepfake, más peligrosos que las fake news

Los gobiernos, especialmente en EE.UU., intentan controlar Silicon Valley. De hecho, las grandes tecnológicas a menudo se niegan a someterse a los intereses nacionales, privilegiando sus propios negocios. Véase la venta ilegal de datos (Facebook) o las artimañas con China (Google). Los medios tradicionales, por su parte, habrían utilizado el argumento de las fake news para salvaguardar su papel de garantes de la información verdadera. Un rol puesto en crisis por el advenimiento de internet y plataformas más horizontales.

Dicho esto, el fenómeno de las noticias falsas existe. Es grave y no debe ser subestimado. También por este motivo, algunos prevén que de aquí a cinco años las principales redes sociales estarán hechas solo de vídeos. De esta manera, los contenidos serán más difíciles de manipular. Bien, pero no muy bien. Porque la herramienta para sortear ese obstáculo ya existe. Son precisamente los llamados deepfake, vídeos manipulados a través de la inteligencia artificial. Un salto de calidad y peligrosidad en el ‘arte de la desinformación’.

¿Qué son los vídeos deepfake?

Existen varias técnicas utilizadas por los creadores de vídeos falsos. Van desde la simple sustitución de una cara por otra hasta la posibilidad de hacer que una persona diga o haga algo en un vídeo que nunca sucedió en la realidad. Por ejemplo, transfiriendo movimientos faciales y corporales de un sujeto A a uno B.

El término deepfake comenzó a extenderse en el otoño de 2017. Entonces, un usuario de ‘Reddit’ usó el seudónimo “deepfakes” para publicar vídeos porno falsos de personas famosas. El rostro de una actriz o un actor porno era reemplazado por el de una estrella de Hollywood. La técnica utilizada se denomina generative adversarial networks o GAN. El nombre deepfake pronto comenzó a definir todos los vídeos hechos de esta manera.

Deep se refiere a deep learning, uno de los procedimientos de aprendizaje de las inteligencias artificiales. Mientras que fake simplemente significa “falso”. A los vídeos deepfake se dedicó hasta un canal en ‘Reddit’, donde cualquiera podía publicar sus ‘creaciones’. En febrero de 2018, la plataforma decidió cerrarlo, tras las numerosas protestas recibidas.

Hace más de un año, un artículo del diario ‘The Economist’ trató el fenómeno cuando aún no era muy popular. En el artículo se explicaba cómo un simple código podía modificar el audio o las imágenes de un vídeo y hacer que las personas dijeran o hicieran cosas que nunca sucedieron en la realidad. Al principio, eran técnicas accesibles solo para unos pocos expertos. Con la mejora de la tecnología, ahora hay programas que lo ponen al alcance de todos.

Algunos ejemplos de vídeos deepfake

Los peligros de los vídeos falsos son directamente proporcionales a la complejidad de su realización. Si se necesitan unos minutos para escribir una noticia falsa, hace falta mucho más tiempo para montar un vídeo de buena calidad. Pero el impacto potencial es infinitamente mayor. En la sociedad de la imagen en la que vivimos, el poder de un vídeo o una foto es mucho mayor que el de un texto escrito.

En la India, después de la violación de una niña de ocho años, el Partido Popular Indio se manifestó en defensa de los acusados. La periodista Rana Ayyub en televisión dijo que India estaba del lado de los violadores. Tras sus declaraciones, en las redes sociales comenzaron a circular falsos tuits de ella en los que decía que “odiaba a la India y a los indios”. También apareció un vídeo porno donde su rostro reemplazaba al de la protagonista original. La periodista, traumatizada por lo ocurrido, dejó de hablar sobre estos temas.

Otro ejemplo de vídeo deepfake es el publicado por el portavoz de la Casa Blanca en Twitter para mostrar el choque entre Donald Trump y el periodista de CNN Jim Acosta. La Administración estadounidense acusó a Acosta de violencia contra la mujer encargada de retirarle el micrófono. El evento tuvo lugar el pasado 8 de noviembre, durante una rueda de prensa.

Storyful, una organización que se ocupa de la verificación de noticias en línea, analizó el vídeo. Su análisis encontró que se habían agregado algunos fragmentos al vídeo original en el momento en el que Acosta pone su mano en el brazo de la empleada de la Casa Blanca. De esta manera, se obtuvo el efecto de enfatizar el acto y hacerlo aparecer violento.

Cómo defenderse de las falsificaciones

El diario ‘The Wall Street Journal’ ha activado un grupo de trabajo para examinar los vídeos deepfake e instruir a los periodistas para que los reconozcan. Lo primero que se debe hacer es bastante obvio: verificar la fuente. ¿Quién lo grabó? ¿Quién lo publicó? ¿Y dónde se compartió por primera vez? Estas son algunas de las preguntas que se deben hacer antes de creer en la veracidad de un vídeo sospechoso. También se puede recurrir a programas de edición para ralentizar la grabación y descubrir eventuales manipulaciones.

Sin embargo, parece complicado detener por completo esta carrera a la falsificación. El pasado 8 de noviembre, casualmente el mismo día de la pelea en la Casa Blanca, la agencia de noticias china Xinhua presentó al primer locutor de noticias completamente ‘falso’. Es una versión digital de un conocido presentador, Qiu Hao, del cual se copiaron los movimientos faciales, la voz y los gestos. Puede hablar mandarín o inglés y leer cualquier noticia. No se equivoca, pero tampoco piensa en lo que dice.

La hegemonía universal de la Iglesia católica comenzó a entrar en crisis cuando perdió el control absoluto sobre la escritura. Johannes Gutenberg inventó la imprenta en 1455 y eliminó con ello el monopolio del conocimiento de los monjes. En 1517, Martín Lutero envió la carta al arzobispo de Magonza con la que inauguró la Reforma. Los dos hechos están en estrecha correlación. El conocimiento significa libertad. Hoy en día, ya no es suficiente saber leer y escribir (o mirar), hay que saber interpretar y entender. Y la lucha contra el analfabetismo funcional aún está lejos de ser ganada.

Imágenes | iStock

Fuente