IA

Si la IA está prediciendo tu futuro, ¿sigues siendo libre?

Mientras lees estas palabras, es probable que haya docenas de algoritmos que hagan predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si obtiene un préstamo, un trabajo, un apartamento o un seguro, y mucho más.

Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer tales pronósticos. Ninguna agencia gubernamental los está supervisando. Nadie te está informando sobre las profecías que determinan tu destino. Peor aún, una búsqueda en la literatura académica de la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos pensado en las implicaciones éticas de hacer predicciones sobre las personas, seres que se supone que están infundidos con agencia y libre albedrío.

Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron sus probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Helen Keller, Rosa Parks, Nelson Mandela y más. Todos tuvieron un gran éxito más allá de las expectativas. Todos los maestros de escuela conocen a niños que han logrado más de lo que se repartió en sus cartas. Además de mejorar la línea de base de todos, queremos una sociedad que permita y estimule acciones que desafíen las adversidades. Sin embargo, cuanto más usamos la IA para categorizar a las personas, predecir su futuro y tratarlas en consecuencia, más restringimos la agencia humana, lo que a su vez nos expondrá a riesgos desconocidos.

Los seres humanos tenemos estado utilizando la predicción desde antes del Oráculo de Delfos. Las guerras se libraron sobre la base de esas predicciones. En décadas más recientes, la predicción se ha utilizado para informar prácticas como la fijación de primas de seguros. Esos pronósticos tendían a ser sobre grandes grupos de personas, por ejemplo, cuántas personas de cada 100,000 chocarán sus autos. Algunas de esas personas serían más cuidadosas y afortunadas que otras, pero las primas eran más o menos homogéneas (excepto para categorías amplias como los grupos de edad) bajo el supuesto de que la combinación de riesgos permite que los costos más altos de los menos cuidadosos y afortunados se compensen con los costos relativamente más bajos. costos de los cuidadosos y afortunados. Cuanto más grande era el grupo, más predecibles y estables eran las primas.

Hoy en día, la predicción se realiza principalmente a través de algoritmos de aprendizaje automático que usan estadísticas para completar los espacios en blanco de lo desconocido. Los algoritmos de texto utilizan enormes bases de datos de idiomas para predecir el final más plausible de una cadena de palabras. Los algoritmos de juego usan datos de juegos anteriores para predecir el mejor próximo movimiento posible. Y los algoritmos que se aplican al comportamiento humano usan datos históricos para inferir nuestro futuro: qué vamos a comprar, si planeamos cambiar de trabajo, si nos vamos a enfermar, si vamos a cometer un crimen o si vamos a estrellarnos. coche. Bajo tal modelo, el seguro ya no se trata de agrupar el riesgo de grandes conjuntos de personas. Más bien, las predicciones se han vuelto individualizadas y cada vez más pagas a tu manera, de acuerdo con tus puntajes de riesgo personales, lo que plantea un nuevo conjunto de preocupaciones éticas.

Una característica importante de las predicciones es que no describen la realidad. Pronosticar se trata del futuro, no del presente, y el futuro es algo que aún no se ha hecho realidad. Una predicción es una conjetura, y en ella se integran todo tipo de evaluaciones subjetivas y sesgos con respecto al riesgo y los valores. Puede haber pronósticos que sean más o menos precisos, sin duda, pero la relación entre probabilidad y realidad es mucho más tenue y éticamente problemática de lo que algunos suponen.

Las instituciones de hoy, sin embargo, a menudo tratan de hacer pasar las predicciones como si fueran un modelo de la realidad objetiva. E incluso cuando los pronósticos de AI son meramente probabilísticos, a menudo se interpretan como deterministas en la práctica, en parte porque los seres humanos son malos para comprender la probabilidad y en parte porque los incentivos para evitar el riesgo terminan reforzando la predicción. (Por ejemplo, si se predice que alguien tiene un 75 por ciento de probabilidades de ser un mal empleado, las empresas no querrán correr el riesgo de contratarlo cuando tengan candidatos con un puntaje de riesgo más bajo).

Las formas en que usamos las predicciones plantean problemas éticos que nos llevan a uno de los debates más antiguos de la filosofía: si hay un Dios omnisciente, ¿se puede decir que somos verdaderamente libres? Si Dios ya sabe todo lo que va a suceder, eso significa que todo lo que va a suceder ha sido predeterminado; de lo contrario, sería incognoscible. La implicación es que nuestro sentimiento de libre albedrío no es más que eso: un sentimiento. Este punto de vista se llama fatalismo teológico.

Lo que preocupa de este argumento, más allá de las preguntas sobre Dios, es la idea de que, si son posibles pronósticos precisos (independientemente de quién los haga), entonces lo que se pronostica ya está determinado. En la era de la IA, esta preocupación se vuelve aún más importante, ya que el análisis predictivo se dirige constantemente a las personas.

Un problema de ética importante es que al hacer pronósticos sobre el comportamiento humano al igual que hacemos pronósticos sobre el clima, estamos tratando a las personas como cosas. Parte de lo que significa tratar a una persona con respeto es reconocer su albedrío y su capacidad para cambiarse a sí mismos y sus circunstancias. Si decidimos que sabemos cuál será el futuro de alguien antes de que llegue y lo tratamos en consecuencia, no le estamos dando la oportunidad de actuar libremente y desafiar las probabilidades de esa predicción.

Un segundo problema ético relacionado con la predicción del comportamiento humano es que al tratar a las personas como cosas, estamos creando profecías autocumplidas. Las predicciones rara vez son neutrales. La mayoría de las veces, el acto de predicción interviene en la realidad que pretende simplemente observar. Por ejemplo, cuando Facebook predice que una publicación se volverá viral, maximiza la exposición a esa publicación y, he aquí, la publicación se vuelve viral. O volvamos al ejemplo del algoritmo que determina que es poco probable que seas un buen empleado. Su incapacidad para conseguir un trabajo puede explicarse no por la precisión del algoritmo, sino porque el algoritmo en sí mismo recomienda que las empresas no lo contraten y las empresas toman su consejo. Ser incluido en la lista negra por un algoritmo puede restringir severamente sus opciones en la vida.

A los filósofos que se preocuparon por el fatalismo teológico en el pasado les preocupaba que si Dios es omnisciente y omnipotente, entonces es difícil no culpar a Dios por el mal. Como escribió David Hume: “Reconciliar la […] contingencia de las acciones humanas con la presciencia […] y, sin embargo, liberar a la Deidad de ser la autora del pecado, se ha encontrado hasta ahora que excede todo el poder de la filosofía”. En el caso de la IA, si los análisis predictivos están creando en parte la realidad que pretenden predecir, entonces son en parte responsables de las tendencias negativas que estamos experimentando en la era digital, desde el aumento de la desigualdad hasta la polarización, la desinformación y el daño a niños y adolescentes.

En definitiva, el extenso uso de análisis predictivos nos priva de la oportunidad de tener un futuro abierto en el que podamos marcar la diferencia, y esto puede tener un impacto destructivo en la sociedad en general.

A lo largo de la historia, hemos ideado formas de vivir que desafían el fatalismo. Hacemos todo lo posible para educar a nuestros hijos, con la esperanza de que todo lo que invertimos los lleve a tener una vida mejor de lo que lo harían de otra manera. Nos esforzamos en mejorar nuestros hábitos con la esperanza de disfrutar de una mejor salud. Elogiamos el buen comportamiento para fomentar más y reconocer que las personas podrían haber tomado peores decisiones. Castigamos a los malhechores, al menos en parte para desincentivarlos a ellos y a otros de transgredir las normas sociales, y en parte para culpar a las personas que creemos que deberían haber actuado mejor. Nos esforzamos por estructurar nuestras sociedades sobre la base del mérito.

Ninguna de esas prácticas sociales tan fundamentales para nuestra forma de vida tendría sentido si pensáramos o actuáramos como si los destinos de las personas estuvieran sellados. El elogio y la culpa serían totalmente inapropiados. Imagina un mundo sin calificaciones, multas, incentivos o castigos de ningún tipo; un mundo sin ningún intento de cambiar el futuro; un mundo en el que la gente vive en absoluta resignación a una profecía. Es casi impensable. Si el futuro de cada empresa pudiera pronosticarse con precisión, los mercados financieros tal como los conocemos colapsarían instantáneamente, y con ellos, nuestra economía. Aunque es poco probable que suceda esta posibilidad extrema, no queremos seguir un camino que nos acerque a ella.

Existe una tensión irresoluble entre la práctica de predecir el comportamiento humano y la creencia en el libre albedrío como parte de nuestra vida cotidiana. Un grado saludable de incertidumbre sobre lo que está por venir nos motiva a querer hacerlo mejor y mantiene abiertas las posibilidades. El deseo de no dejar ningún punto de datos potencial sin recopilar con el objetivo de trazar nuestro futuro es incompatible con tratar a las personas como dueños de sus propias vidas.

Tenemos que elegir entre tratar a los seres humanos como máquinas mecanicistas cuyo futuro puede y debe ser predicho (en cuyo caso sería absurdo creer en la meritocracia), o tratarnos unos a otros como agentes (en cuyo caso convertir a las personas en blanco de predicciones individuales es inadecuado). Jamás se nos ocurriría meter un tractor u otra máquina en la cárcel. Si los seres humanos son como los tractores, tampoco deberíamos encarcelarlos. Si, por otro lado, los seres humanos son diferentes de las máquinas, y queremos seguir impartiendo elogios y críticas, entonces no deberíamos tratar a las personas como cosas prediciendo lo que van a hacer a continuación como si no tuvieran nada que decir. el asunto

Las predicciones no son inocuas. El uso extensivo del análisis predictivo puede incluso cambiar la forma en que los seres humanos piensan sobre sí mismos. Hay valor en creer en el libre albedrío. La investigación en psicología ha demostrado que socavar la confianza de las personas en el libre albedrío aumenta el engaño, la agresión y la conformidad y disminuye el comportamiento útil y los sentimientos positivos como la gratitud y la autenticidad. Cuanto más usamos el análisis predictivo en las personas, más conceptualizamos a los seres humanos como nada más que el resultado de sus circunstancias, y es más probable que las personas se sientan desprovistas de agencia e impotentes ante las dificultades. Cuantas menos oportunidades demos a las personas para desafiar las probabilidades, más culpables seremos de condenarlas a ellas y a la sociedad al statu quo.

Al decidir el destino de los seres humanos sobre la base de algoritmos predictivos, estamos convirtiendo a las personas en robots. La creatividad de la gente para desafiar las probabilidades ha ayudado a salvar naciones enteras. Piense en Roosevelt y Churchill durante la Segunda Guerra Mundial. Superaron dificultades indescriptibles en su vida personal y profesional y ayudaron a salvar al mundo del totalitarismo en el proceso. La capacidad de desafiar las adversidades es uno de los mayores dones de la humanidad, y la socavamos a nuestro propio riesgo.

Original