Artículos Pensamiento crítico Verificación

ChatGPT y otras IA generativa podrían fomentar la negación científica y los malentendidos: así es como puede estar alerta – The Conversation

por Sinatra Gale and Barbara K. Hofer

Hasta hace muy poco, si quería saber más sobre un tema científico controvertido (la investigación con células madre, la seguridad de la energía nuclear, el cambio climático), probablemente haría una búsqueda en Google. Presentado con múltiples fuentes, usted elige qué leer, seleccionando en qué sitios o autoridades confiar.

Ahora tienes otra opción: puedes plantear tu pregunta a ChatGPT u otra plataforma de inteligencia artificial generativa y recibir rápidamente una respuesta sucinta en forma de párrafo.

ChatGPT no busca en Internet como lo hace Google. En su lugar, genera respuestas a consultas mediante la predicción de posibles combinaciones de palabras a partir de una amalgama masiva de información disponible en línea.

Aunque tiene el potencial de mejorar la productividad, se ha demostrado que la IA generativa tiene algunas fallas importantes. Puede producir desinformación. Puede crear “alucinaciones“, un término benigno para inventar cosas. Y no siempre resuelve con precisión los problemas de razonamiento. Por ejemplo, cuando se le preguntó si tanto un automóvil como un tanque pueden pasar por una puerta, no tuvo en cuenta ni el ancho ni la altura. Sin embargo, ya se está utilizando para producir artículos y contenido de sitios web que puede haber encontrado, o como una herramienta en el proceso de escritura. Sin embargo, es poco probable que sepa si lo que está leyendo fue creado por IA.

Como autores de “La negación de la ciencia: por qué sucede y qué hacer al respecto”, nos preocupa cómo la IA generativa puede desdibujar los límites entre la verdad y la ficción para aquellos que buscan información científica autorizada.

Todos los consumidores de medios deben estar más atentos que nunca para verificar la precisión científica de lo que leen. Así es como puede mantenerse alerta en este nuevo panorama de información.

puntos morados brillantes conectados por líneas azules
En función de todos los puntos de datos que ingiere, una plataforma de IA utiliza algoritmos predictivos para generar respuestas a las consultas. Cobalt88/iStock a través de Getty Images Plus

Cómo la IA generativa podría promover la negación de la ciencia

Erosión de la confianza epistémica. Todos los consumidores de información científica dependen de los juicios de expertos científicos y médicos. La confianza epistémica es el proceso de confiar en el conocimiento que obtienes de otros. Es fundamental para la comprensión y el uso de la información científica. Ya sea que alguien esté buscando información sobre un problema de salud o tratando de comprender las soluciones al cambio climático, a menudo tienen una comprensión científica limitada y poco acceso a evidencia de primera mano. Con un cuerpo de información en línea que crece rápidamente, las personas deben tomar decisiones frecuentes sobre en qué y en quién confiar. Con el mayor uso de la IA generativa y el potencial de manipulación, creemos que es probable que la confianza se erosione más de lo que ya lo ha hecho.

Engañoso o simplemente equivocado. Si hay errores o sesgos en los datos en los que se entrenan las plataformas de IA, eso puede reflejarse en los resultados. En nuestras propias búsquedas, cuando le hemos pedido a ChatGPT que regenere varias respuestas a la misma pregunta, hemos obtenido respuestas contradictorias. Cuando se le preguntó por qué, respondió: “A veces cometo errores”. Quizás el problema más complicado con el contenido generado por IA es saber cuándo está mal.

La desinformación se difundió intencionalmente. La IA se puede utilizar para generar desinformación convincente como texto, así como imágenes y videos falsos. Cuando le pedimos a ChatGPT que “escribiera sobre vacunas al estilo de la desinformación“, produjo una cita inexistente con datos falsos. Geoffrey Hinton, exjefe de desarrollo de IA en Google, renunció para tener la libertad de hacer sonar la alarma y dijo: “Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas“. El potencial para crear y difundir información deliberadamente incorrecta sobre la ciencia ya existía, pero ahora es peligrosamente fácil.

Fuentes fabricadas. ChatGPT proporciona respuestas sin ninguna fuente o, si se le solicitan fuentes, puede presentar las que inventó. Ambos le pedimo a ChatGPT que generara una lista de nuestras propias publicaciones. Cada uno de nosotros identificamos algunas fuentes correctas. Más eran alucinaciones, pero aparentemente respetables y en su mayoría plausibles, con coautores anteriores reales, en revistas que suenan similares. Esta inventiva es un gran problema si una lista de las publicaciones de un erudito transmite autoridad a un lector que no se toma el tiempo de verificarlas.

Conocimiento anticuado. ChatGPT no sabe qué sucedió en el mundo después de que concluyó su entrenamiento. Una consulta sobre qué porcentaje del mundo ha tenido COVID-19 arrojó una respuesta precedida por “a partir de la fecha límite de mi conocimiento de septiembre de 2021”. Dada la rapidez con la que avanza el conocimiento en algunas áreas, esta limitación podría significar que los lectores obtengan información errónea y desactualizada. Si está buscando investigaciones recientes sobre un problema de salud personal, por ejemplo, tenga cuidado.

Avance rápido y escasa transparencia. Los sistemas de IA continúan volviéndose más poderosos y aprenden más rápido, y pueden aprender más información científica errónea en el camino. Google anunció recientemente 25 nuevos usos integrados de IA en sus servicios. En este punto, no existen suficientes barandillas para garantizar que la IA generativa se convierta en un proveedor más preciso de información científica con el tiempo.

la mujer parece confundida tomando notas en papel mirando la computadora portátil
Esté preparado para mirar más allá de su solicitud de ChatGPT. 10 000 horas/DigitalVision a través de Getty Images

¿Qué puedes hacer?

Si usa ChatGPT u otras plataformas de IA, tenga en cuenta que es posible que no sean completamente precisas. La carga recae en el usuario para discernir la precisión.

Aumente su vigilancia. Las aplicaciones de verificación de hechos de IA pueden estar disponibles pronto, pero por ahora, los usuarios deben actuar como sus propios verificadores de hechos. Hay pasos que recomendamos. La primera es: estar alerta. Las personas a menudo comparten reflexivamente la información que encuentran en las búsquedas en las redes sociales con poca o ninguna investigación. Sepa cuándo volverse más deliberadamente reflexivo y cuándo vale la pena identificar y evaluar las fuentes de información. Si está tratando de decidir cómo manejar una enfermedad grave o comprender los mejores pasos para abordar el cambio climático, tómese el tiempo para examinar las fuentes.

Mejore su verificación de datos. Un segundo paso es la lectura lateral, un proceso que utilizan los verificadores de hechos profesionales. Abra una nueva ventana y busque información sobre las fuentes, si se proporcionan. ¿Es creíble la fuente? ¿El autor tiene experiencia relevante? ¿Y cuál es el consenso de los expertos? Si no se proporcionan fuentes o no sabe si son válidas, utilice un motor de búsqueda tradicional para encontrar y evaluar expertos en el tema.

Evaluar la evidencia. A continuación, eche un vistazo a la evidencia y su conexión con la afirmación. ¿Existe evidencia de que los alimentos genéticamente modificados son seguros? ¿Hay evidencia de que no lo son? ¿Qué es el consenso científico? Evaluar los reclamos requerirá un esfuerzo más allá de una consulta rápida a ChatGPT.

Si comienza con la IA, no se detenga allí. Tenga cuidado al usarlo como la única autoridad en cualquier tema científico. Es posible que vea lo que ChatGPT tiene que decir sobre los organismos genéticamente modificados o la seguridad de las vacunas, pero también realice un seguimiento con una búsqueda más diligente utilizando los motores de búsqueda tradicionales antes de sacar conclusiones.

Evaluar plausibilidad. Juzgar si la afirmación es plausible. ¿Es probable que sea cierto? Si la IA hace una declaración inverosímil (e inexacta) como “1 millón de muertes fueron causadas por vacunas, no por COVID-19“, considere si tiene sentido. Haga un juicio tentativo y luego esté abierto a revisar su pensamiento una vez que haya verificado la evidencia.

Promover la alfabetización digital en uno mismo y en los demás . Todo el mundo necesita mejorar su juego. Mejore su propia alfabetización digital y, si es padre, maestro, mentor o líder comunitario, promueva la alfabetización digital en otros. La Asociación Estadounidense de Psicología brinda orientación sobre la verificación de información en línea y recomienda que los adolescentes se capaciten en habilidades de redes sociales para minimizar los riesgos para la salud y el bienestar. El News Literacy Project proporciona herramientas útiles para mejorar y apoyar la alfabetización digital.

Ármate con las habilidades que necesitas para navegar por el nuevo panorama de la información de IA. Incluso si no usa IA generativa, es probable que ya haya leído artículos creados por ella o desarrollados a partir de ella. Puede tomar tiempo y esfuerzo encontrar y evaluar información confiable sobre ciencia en línea, pero vale la pena.

Original