IA Pensamiento crítico

Las teorías de la conspiración tienen un nuevo mejor amigo – The Atlantic

por Matteo Wong

La historia ha sido durante mucho tiempo un teatro de guerra, el pasado sirviendo como representante en los conflics sobre el presente. Ron DeSantis está distorsionando la historia al prohibir libros sobre racismo en las escuelas de Florida; la gente sigue dividida sobre el enfoque correcto para repatriar objetos y restos indígenas; los papeles del pentágono fueron un intento de torcer las narrativas sobre la Guerra de Vietnam. Los nazis tomaron el poder en parte manipulando el pasado: utilizaron propaganda sobre el incendio del Reichstag, el edificio del parlamento alemán, para justificar la persecución de sus rivales políticos y asumir la autoridad dictatorial. Ese ejemplo específico pesa sobre Eric Horvitz, director científico de Microsoft y destacado investigador de IA, quien me dice que la aparente revolución de la IA no solo podría proporcionar una nueva arma a los propagandistas, como lo hicieron las redes sociales a principios de este siglo, sino que también podría remodelar por completo el terreno historiográfico, tal vez sentando las bases para un incendio del Reichstag moderno.

Los avances en cuestión, incluidos modelos de lenguaje como ChatGPT y generadores de imágenes como DALL-E 2, caen libremente bajo el paraguas de la «IA generativa». Estos son programas poderosos y fáciles de usar que producen texto, imágenes, video y audio sintéticos, todo lo cual puede ser utilizado por malos actores para fabricar eventos ,personas, discursos y noticias para sembrar desinformación. Es posible que ya haya visto ejemplos únicos de este tipo de medios: videos falsos del presidente ucraniano Volodymyr Zelensky rindiéndose a Rusia; imágenes simuladas de Joe Rogan y Ben Shapiro discutiendo sobre la película Ratatouille. A medida que avanza esta tecnología, las fabricaciones fragmentarias podrían dar paso a campañas coordinadas, no solo medios sintéticos, sino historias sintéticas completas, como los llamó Horvitz en un artículo a fines del año pasado. Y una nueva generación de motores de búsqueda impulsados ​​por IA, liderados por Microsoft y Google, podría hacer que tales historias sean más fáciles de encontrar y casi imposibles de detectar para los usuarios.

Aunque temores similares sobre las redes sociales, la televisión y la radio resultaron algo alarmistas, hay razones para creer que la IA podría ser realmente la nueva variante de desinformación que hace que las mentiras sobre futuras elecciones, protestas o tiroteos masivos sean más contagiosas e inmunes. Considere, por ejemplo, el furioso brote de gripe aviar, que aún no ha comenzado a propagarse de humano a humano. Un operativo político, o un simple conspirador, podría usar programas similares a ChatGPT y DALL-E 2 para generar y publicar fácilmente una gran cantidad de historias sobre laboratorios chinos, de la Organización Mundial de la Salud o del Pentágono que manipulan el virus, con fecha anterior a varios puntos en el pasado y con falsos «filtrados». documentos, grabaciones de audio y video y comentarios de expertos. Una historia sintética en la que una gripe aviar armada por el gobierno estaría lista para funcionar si la gripe aviar alguna vez comenzara a circular entre los humanos. Un propagandista podría simplemente conectar las noticias con su historia de fondo completamente inventada, pero completamente formada y aparentemente bien documentada, sembrada en Internet, difundiendo una ficción que podría consumir la política de la nación y respuesta de salud pública. El poder de las historias generadas por IA, me dijo Horvitz, radica en «deepfakes con una línea de tiempo entremezclada con eventos reales para construir una historia».

También es posible que las historias sintéticas cambien el tipo, pero no la gravedad, de la desinformación ya rampante en línea. Las personas están felices de creer las historias falsas que ven en Facebook, Rumble, Truth Social, YouTube, donde sea. Antes de la web, abundaban la propaganda y las mentiras sobre los extranjeros, los enemigos de la guerra, los alienígenas y Bigfoot. Y en lo que respecta a los medios sintéticos o «deepfakes», las investigaciones existentes sugieren que ofrecen un beneficio sorprendentemente pequeño en comparación con manipulaciones más simples, como etiquetar incorrectamente imágenes o escribir informes de noticias falsas. No necesitas tecnología avanzada para que la gente crea una teoría de la conspiración. Aún así, Horvitz cree que estamos en un precipicio: la velocidad a la que la IA puede generar desinformación de alta calidad será abrumadora.

La desinformación automatizada producida a un ritmo y una escala elevados podría permitir lo que él llama «explicaciones generativas adversarias». En una especie de paralelismo con el contenido específico que recibe en las redes sociales, que se prueba y optimiza de acuerdo con lo que la gente interactúa, los propagandistas podrían realizar pequeñas pruebas para determinar qué partes de una narrativa inventada son más o menos convincentes y usar esa retroalimentación junto con la investigación de psicología social para mejorar iterativamente esa historia sintética. Por ejemplo, un programa podría revisar y modular las credenciales y cotizaciones de un experto fabricado para aterrizar con ciertos datos demográficos. Los modelos de lenguaje como ChatGPT también amenazan con ahogar Internet en un texto de Potemkin adaptado y conspirativo similar, no publicidad dirigida, sino conspiraciones dirigidas.

El plan de las Big Tech para reemplazar la búsqueda tradicional en Internet con chatbots podría aumentar sustancialmente este riesgo. Los modelos de lenguaje de IA que se están integrando en Bing y Google son notoriamente malos en la verificación de hechos y propensos a falsedades, lo que quizás los hace susceptibles de difundir historias falsas. Aunque muchas de las primeras versiones de la búsqueda basada en chatbot dan respuestas al estilo de Wikipedia con notas al pie, el objetivo de una historia sintética es proporcionar un conjunto de fuentes alternativas y convincentes. Y toda la premisa de los chatbots es la conveniencia: que las personas confíen en ellos sin verificar.

Si este fin del mundo de la desinformación suena familiar, es porque lo es. “La afirmación sobre la tecnología [IA] es la misma que la gente hacía ayer sobre Internet”, dice Joseph Uscinski, politólogo de la Universidad de Miami que estudia las teorías de la conspiración. “Dios mío, las mentiras viajan más lejos y más rápido que nunca, y todos creerán todo lo que vean”. Pero no ha encontrado evidencia de que las creencias en las teorías de la conspiración hayan aumentado junto con el uso de las redes sociales, o incluso durante la pandemia de coronavirus; la investigación sobre narrativas comunes como las cámaras de eco también es inestable.

La gente cree en historias alternativas no porque las nuevas tecnologías las hagan más convincentes, dice Uscinski, sino por la misma razón por la que creen cualquier otra cosa: tal vez la conspiración confirma sus creencias, coincide con sus ideas políticas o procede de una fuente en la que confían. Pone como ejemplo el cambio climático: Las personas que creen en el calentamiento antropogénico, en su mayoría, «no han investigado los datos por sí mismos. Lo único que hacen es escuchar a sus fuentes de confianza, que es exactamente lo que hacen también los negacionistas del cambio climático. Es exactamente el mismo mecanismo, sólo que en este caso las élites republicanas están equivocadas».

Por supuesto, las redes sociales cambiaron la forma en que las personas producen, difunden y consumen información. La IA generativa podría hacer lo mismo, pero con nuevas apuestas. “En el pasado, la gente probaba las cosas por intuición”, me dijo Horvitz. “Pero la idea de iterar más rápido, con más precisión quirúrgica en la manipulación de mentes, es algo nuevo. La fidelidad del contenido, la facilidad con la que se puede generar, la facilidad con la que se pueden publicar múltiples eventos en las líneas de tiempo”: todas son razones importantes para preocuparse. Ya, en el período previo a las elecciones de 2020, Donald Trump sembró dudas sobre el fraude electoral que reforzó la campaña “Stop the Steal” una vez que perdió. A medida que se acerca noviembre de 2024, los agentes políticos con ideas afines podrían usar IA para crear personajes y funcionarios electorales falsos, fabricar videos de manipulación de máquinas de votación y relleno de boletas, y escribir noticias falsas, todo lo cual se uniría en una historia sintética hermética. en el que se robaron las elecciones.

Las campañas de deepfake podrían llevarnos más lejos a «un mundo posepistémico, donde no sabes qué es real o falso», dijo Horvitz. Un empresario acusado de irregularidades podría llamar evidencia incriminatoria generada por IA; un político podría plantar asesinatos documentados pero completamente falsos de los rivales. O tal vez, de la misma manera que Truth Social y Rumble brindan alternativas conservadoras a Twitter y YouTube, una alternativa de extrema derecha a la búsqueda impulsada por IA, entrenada en una gran cantidad de conspiraciones e historias sintéticas, ascenderá en respuesta a los temores sobre Google, Bing , y “ WokeGPT ” siendo demasiado progresista. «No hay nada en mi mente que impida que eso suceda en la capacidad de búsqueda», Renée DiResta, el gerente de investigación del Observatorio de Internet de Stanford, quien recientemente escribió un artículo sobre modelos de lenguaje y desinformación, dice. «Va a ser visto como una fantástica oportunidad de mercado para alguien». RightWingGPT y una IA conservadora-cristiana ya están en discusión, y se informa que Elon Musk está reclutando talento para construir un rival conservador para OpenAI.

Prepararse para tales campañas de deepfake, dijo Horvitz, requerirá una variedad de estrategias, incluidos los esfuerzos de alfabetización mediática, métodos de detección mejorados y regulación. Lo más prometedor podría ser crear un estándar para establecer la procedencia de cualquier elemento multimedia: un registro de dónde se tomó una foto y todas las formas en que se editó, adjunto al archivo como metadatos, como una cadena de custodia para evidencia forense, que Adobe, Microsoft y varias otras empresas están trabajando. Pero la gente aún necesitaría entender y confiar en ese registro. “Tienes este momento tanto de proliferación de contenido como de confusión sobre cómo van a ser las cosas”, dice Rachel Kuo, profesora de estudios de medios en la Universidad de Illinois en Urbana-Champaign. La procedencia, la detección u otros métodos de desacreditación aún pueden depender en gran medida de personas que escuchan a expertos, ya sean periodistas, funcionarios gubernamentales o chatbots de IA, quienes les dicen qué es y qué no es legítimo. E incluso con esas cadenas de custodia de silicona, seguirán existiendo formas más simples de mentir (en las noticias por cable, en el Congreso o en forma impresa).

Enmarcar la tecnología como la fuerza impulsora detrás de la desinformación y la conspiración implica que la tecnología es una solución suficiente, o al menos necesaria. Pero enfatizarnos en la IA podría ser un error. Si lo que nos preocupa principalmente es “que alguien vaya a hacer un deepfake de Joe Biden, diciendo que es un pedófilo, entonces estamos ignorando la razón por la cual una información como esa sería resonante”, Alice Marwick, profesor de estudio de medios en la Universidad de Carolina del Norte en Chapel Hill, me dijo. Y argumentar que las nuevas tecnologías, ya sean las redes sociales o la IA, son principal o únicamente responsables de torcer la verdad corre el riesgo de materializar el poder de los anuncios, algoritmos y fuentes de Big Tech para determinar nuestros pensamientos y sentimientos. Como ha escrito el reportero Joseph Bernstein: “Es un modelo de causa y efecto en el que la información que circula por unas pocas corporaciones tiene el poder total para justificar las creencias y comportamientos del demos. En cierto modo, este mundo es una especie de consuelo. Fácil de explicar, fácil de modificar y fácil de vender”.

La historia más complicada podría lidiar con cómo los humanos, y tal vez las máquinas, no siempre son muy racionales; con lo que habría que hacer para que la escritura de la historia ya no sea una guerra. La historiadora Jill Lepore ha dicho que «la nota al pie de página salvó a Wikipedia«, lo que sugiere que el abastecimiento transparente ayudó a que el sitio web se convirtiera, o al menos pareciera ser, en una fuente principal de información bastante confiable. Pero tal vez ahora la nota al pie, ese impulso e ímpetu por verificar, esté a punto de hundir internet, si no lo ha hecho ya.

Original