Artículos

Lo que nos faltaba: llegan los vídeos deepfake, más peligrosos que las fake news

Print Friendly, PDF & Email



Los gobiernos, especialmente en EE.UU., intentan controlar Silicon Valley. De hecho, las grandes tecnológicas a menudo se niegan a someterse a los intereses nacionales, privilegiando sus propios negocios. Véase la venta ilegal de datos (Facebook) o las artimañas con China (Google). Los medios tradicionales, por su parte, habrían utilizado el argumento de las fake news
para salvaguardar su papel de garantes de la información verdadera. Un
rol puesto en crisis por el advenimiento de internet y plataformas más
horizontales.

Dicho esto, el fenómeno de las noticias falsas existe. Es grave y no debe ser subestimado. También por este motivo, algunos prevén
que de aquí a cinco años las principales redes sociales estarán hechas
solo de vídeos. De esta manera, los contenidos serán más difíciles de
manipular. Bien, pero no muy bien. Porque la herramienta para sortear
ese obstáculo ya existe. Son precisamente los llamados deepfake, vídeos manipulados a través de la inteligencia artificial. Un salto de calidad y peligrosidad en el ‘arte de la desinformación’.

¿Qué son los vídeos deepfake?

Existen varias técnicas utilizadas por los creadores de vídeos
falsos. Van desde la simple sustitución de una cara por otra hasta la
posibilidad de hacer que una persona diga o haga algo en un vídeo que nunca sucedió en la realidad. Por ejemplo, transfiriendo movimientos faciales y corporales de un sujeto A a uno B.

El término deepfake comenzó a extenderse en el otoño de 2017. Entonces, un usuario de ‘Reddit’ usó el seudónimo “deepfakes” para publicar vídeos porno falsos de personas famosas.
El rostro de una actriz o un actor porno era reemplazado por el de una
estrella de Hollywood. La técnica utilizada se denomina generative adversarial networks o GAN. El nombre deepfake pronto comenzó a definir todos los vídeos hechos de esta manera.

Deep se refiere a deep learning, uno de los procedimientos de aprendizaje de las inteligencias artificiales. Mientras que fake simplemente significa “falso”. A los vídeos deepfake se dedicó hasta un canal en ‘Reddit’, donde cualquiera podía publicar sus ‘creaciones’. En febrero de 2018, la plataforma decidió cerrarlo, tras las numerosas protestas recibidas.

Hace más de un año, un artículo del diario ‘The Economist’
trató el fenómeno cuando aún no era muy popular. En el artículo se
explicaba cómo un simple código podía modificar el audio o las imágenes
de un vídeo y hacer que las personas dijeran o hicieran cosas que nunca
sucedieron en la realidad. Al principio, eran técnicas accesibles solo
para unos pocos expertos. Con la mejora de la tecnología, ahora hay programas que lo ponen al alcance de todos.

Algunos ejemplos de vídeos deepfake

Los peligros de los vídeos falsos son directamente proporcionales a
la complejidad de su realización. Si se necesitan unos minutos para
escribir una noticia falsa, hace falta mucho más tiempo para montar un
vídeo de buena calidad. Pero el impacto potencial es infinitamente
mayor. En la sociedad de la imagen en la que vivimos, el poder de un vídeo o una foto es mucho mayor que el de un texto escrito.

En la India, después de la violación de una niña de ocho años, el
Partido Popular Indio se manifestó en defensa de los acusados. La
periodista Rana Ayyub
en televisión dijo que India estaba del lado de los violadores. Tras
sus declaraciones, en las redes sociales comenzaron a circular falsos
tuits de ella en los que decía que “odiaba a la India y a los indios”.
También apareció un vídeo porno donde su rostro reemplazaba al de la protagonista original. La periodista, traumatizada por lo ocurrido, dejó de hablar sobre estos temas.

Otro ejemplo de vídeo deepfake es el publicado por el
portavoz de la Casa Blanca en Twitter para mostrar el choque entre
Donald Trump y el periodista de CNN Jim Acosta. La Administración
estadounidense acusó a Acosta de violencia contra la mujer encargada de
retirarle el micrófono. El evento tuvo lugar el pasado 8 de noviembre,
durante una rueda de prensa.

Storyful, una organización que se ocupa de la verificación de noticias en línea, analizó el vídeo. Su análisis encontró que se habían agregado algunos fragmentos al vídeo original
en el momento en el que Acosta pone su mano en el brazo de la empleada
de la Casa Blanca. De esta manera, se obtuvo el efecto de enfatizar el
acto y hacerlo aparecer violento.

Cómo defenderse de las falsificaciones

El diario ‘The Wall Street Journal’ ha activado un grupo de trabajo para examinar los vídeos deepfake e instruir a los periodistas para que los reconozcan. Lo primero que se debe hacer es bastante obvio: verificar la fuente.
¿Quién lo grabó? ¿Quién lo publicó? ¿Y dónde se compartió por primera
vez? Estas son algunas de las preguntas que se deben hacer antes de
creer en la veracidad de un vídeo sospechoso. También se puede recurrir a
programas de edición para ralentizar la grabación y descubrir
eventuales manipulaciones.

Sin embargo, parece complicado detener por completo esta carrera a la falsificación.
El pasado 8 de noviembre, casualmente el mismo día de la pelea en la
Casa Blanca, la agencia de noticias china Xinhua presentó al primer
locutor de noticias completamente ‘falso’. Es una versión digital
de un conocido presentador, Qiu Hao, del cual se copiaron los
movimientos faciales, la voz y los gestos. Puede hablar mandarín o
inglés y leer cualquier noticia. No se equivoca, pero tampoco piensa en
lo que dice.

La hegemonía universal de la Iglesia católica comenzó a entrar en
crisis cuando perdió el control absoluto sobre la escritura. Johannes
Gutenberg inventó la imprenta en 1455 y eliminó con ello el monopolio
del conocimiento de los monjes. En 1517, Martín Lutero envió la carta al
arzobispo de Magonza con la que inauguró la Reforma. Los dos hechos
están en estrecha correlación. El conocimiento significa libertad. Hoy en día, ya no es suficiente saber leer
y escribir (o mirar), hay que saber interpretar y entender. Y la lucha
contra el analfabetismo funcional aún está lejos de ser ganada.

Imágenes | iStock

Fuente

Please follow and like us: