Artículos Herramientas IA Pensamiento crítico Verificación

Cómo puedes saber que las imágenes de IA del arresto de Trump son deepfakes – Wired

Las imágenes virales generadas por inteligencia artificial de la detención de Donald Trump que puedes estar viendo en las redes sociales son definitivamente falsas. Pero algunas de estas creaciones fotorrealistas son bastante convincentes. Otras parecen más bien fotogramas de un videojuego o de un sueño lúcido. Un hilo de Twitter de Eliot Higgins, fundador de Bellingcat, que muestra a Trump siendo acosado por policías sintéticos, corriendo a la fuga y eligiendo un uniforme de prisión fue visto más de 3 millones de veces en la plataforma de medios sociales.

¿Qué cree Higgins que pueden hacer los espectadores para diferenciar las imágenes falsas de IA, como las de su post, de las fotografías reales que puedan salir de la posible detención del expresidente?

“Después de haber creado un montón de imágenes para el hilo, es evidente que a menudo se centra en el primer objeto descrito – en este caso, los diversos miembros de la familia Trump – con todo a su alrededor a menudo tienen más defectos”, dijo Higgins por correo electrónico. Mira fuera del punto focal de la imagen. ¿Parece que el resto de la imagen es una ocurrencia tardía?

Aunque las versiones más recientes de herramientas de imagen por IA, como Midjourney (cuya versión 5 se utilizó en el hilo mencionado) y Stable Diffusion, están progresando considerablemente, los errores en los detalles más pequeños siguen siendo un signo común de las imágenes falsas. A medida que el arte de la IA gana popularidad, muchos artistas señalan que los algoritmos siguen teniendo dificultades para reproducir el cuerpo humano de forma coherente y natural.

Observando las imágenes de Trump tomadas por la IA en el hilo de Twitter, la cara parece bastante convincente en muchas de las publicaciones, al igual que las manos, pero las proporciones de su cuerpo pueden parecer contorsionadas o fundidas en un agente de policía cercano. Aunque ahora es obvio, es posible que el algoritmo sea capaz de evitar partes del cuerpo de aspecto peculiar con más entrenamiento y perfeccionamiento.

¿Necesitas otra pista? Busca escritos extraños en las paredes, la ropa u otros objetos visibles. Higgins señala el texto desordenado como una forma de diferenciar las imágenes falsas de las fotos reales. Por ejemplo, la policía lleva insignias, gorras y otros documentos que parecen tener letras, a primera vista, en las imágenes falsas de los agentes deteniendo a Trump. Tras una inspección más minuciosa, las palabras carecen de sentido.

Otra forma de saber si una imagen ha sido generada por la IA es observar las expresiones faciales exageradas. “También me he dado cuenta de que si pides expresiones, Midjourney tiende a representarlas de forma exagerada, con pliegues de piel muy pronunciados por ejemplo al sonreír”, explica Higgins. La expresión de dolor en la cara de Melania Trump parece más una recreación de El grito de Edvard Munch o un fotograma de una película de terror inédita de A24 que una instantánea de un fotógrafo humano”.

Hay que tener en cuenta que los líderes mundiales, las celebridades, las personas influyentes en las redes sociales y cualquier persona con grandes cantidades de fotos circulando en línea pueden parecer más convincentes en las fotos deepfaked que las imágenes generadas por IA de personas con menos presencia visible en Internet. “Está claro que cuanto más famosa es una persona, más imágenes ha tenido que aprender la IA”, explica Higgins. “Así que las personas muy famosas se representan muy bien, mientras que las menos famosas suelen ser un poco torpes“. Para mayor tranquilidad sobre la capacidad del algoritmo para recrear tu rostro, quizá merezca la pena pensárselo dos veces antes de publicar un montón de selfies después de una noche divertida con los amigos. (Aunque es probable que los generadores de IA ya hayan raspado tus datos de imagen de la web).

En vísperas de las próximas elecciones presidenciales de EE.UU., ¿cuál es la política de Twitter sobre las imágenes generadas por IA? La política actual de la plataforma de redes sociales dice, en parte: “No puedes compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y causar daños (“medios engañosos”)”. Twitter establece varias excepciones para memes, comentarios y publicaciones que no se hayan creado con la intención de engañar a los espectadores.

Hace apenas unos años, era casi inimaginable que una persona normal y corriente pudiera fabricar en su casa deepfakes fotorrealistas de líderes mundiales. A medida que las imágenes de IA se vuelven más difíciles de diferenciar de las reales, es posible que las plataformas de redes sociales tengan que reevaluar su enfoque de los contenidos sintéticos e intentar encontrar formas de guiar a los usuarios a través del complejo y a menudo inquietante mundo de la IA generativa.

Original