Artículos

El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes

Vídeos manipulados usando herramientas de inteligencia artificial para mostrar algo que no es real. De eso se tratan los ‘deepfakes‘, esa tendencia que surgió en un inicio para crear vídeos porno falsos, donde se ponía el rostro de actrices famosas en los de actrices porno, y que con el tiempo ha saltado a diversas áreas que van desde el simple entretenimiento hasta cosas más serias y preocupantes, como la manipulación política.

A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno y hasta demandas por parte de algunas actrices afectadas, los ‘deepfakes’ están aquí y sus efectos podrían ser desastrosos, ya que dan fuerza a ‘fake news’ y son ideales para intervenir en asuntos políticos. Hoy tenemos una nueva muestra de sus capacidades, y como veremos a continuación es algo realmente impresionante y aterrador.

No, Jennifer Buscemi no existe, aunque parezca real

El siguiente vídeo fue creado por el usuario de Reddit conocido como VillainGuy, quien lo publicó a inicios de este año. El vídeo nos muestra al actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016. Lo impresionante del vídeo es el nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible.

Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita ‘faceswap’ y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació ‘Jennifer Lawrence-Buscemi’.

El vídeo estalló hoy en redes sociales tras algunos señalamientos por parte de legisladores de los Estados Unidos, quienes alertaron sobre el peligro de los vídeos deepfakes ahora que se acercan las elecciones de 2020. De hecho, hay informes que apuntan a que el Departamento de Defensa de los Estados Unidos ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un vídeo es falso o ha sido manipulado con herramientas como ‘faceswap’.

Hoy día, se dice que un grupo de investigadores ya han desarrollado una herramienta que detecta cuando se trata de un vídeo deepfake, la cual se basa en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo, lo cual aseguran se ha convertido en la técnica más eficiente hasta el momento con un 95% de efectividad.

Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: “Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos ‘deepfake'”. Lyu también señala que con el paso del tiempo los vídeos deepfake perfeccionarán sus técnicas y cada vez será más difícil identificarlos.

Otro de los aspectos que preocupan de esta tecnología, más allá de los vídeos porno y las fake news, es que son posibles herramientas de chantaje para gente inocente, gente que no tiene los recursos para frenar la difusión de estos vídeos y que pueden desde dañar su imagen hasta convertirse en posibles sospechosos de un crimen.

Los políticos y los personajes famosos tienen la posibilidad de contratar un equipo que se haga cargo ante casos de difamación a través de vídeos deepfake, pero un ciudadano común no. Por ello, ahora mismo son la parte más vulnerable ante la explosión de esta tecnología. Sí, estamos ante una aterradora forma de dañar a personas inocentes por medio de vídeos falsos, los cuales tienen la capacidad de mostrarlos participando en actos violentos y criminales que nunca han cometido.

Fuente