Artículos IA

Externalización de la moralidad a la IA – Wired

por John Danaher

Todo empezó con un oscuro artículo en una oscura revista, publicado justo cuando empezaba a descongelarse el último invierno de la IA. En 2004, Andreas Matthias escribió un artículo con el enigmático título “The responsibility gap: Ascribing responsibility for the actions of learning automata.” En él destacaba un nuevo problema de los modernos sistemas de IA basados en principios de aprendizaje automático.

Antes tenía sentido responsabilizar al fabricante u operador de una máquina si ésta causaba daños, pero con la llegada de máquinas que podían aprender de sus interacciones con el mundo, esta práctica dejó de tener sentido. Los autómatas de aprendizaje (por utilizar la terminología de Matthias) podían hacer cosas que no eran predecibles ni razonablemente previsibles para sus supervisores humanos. Es más, podían hacer estas cosas sin supervisión o control humano directo. Desde el punto de vista moral y jurídico, ya no sería justo responsabilizar a los humanos de las acciones de las máquinas. Matthias argumentaba que esto dejaba a la humanidad ante un dilema: impedir el desarrollo de los autómatas de aprendizaje o aceptar las “lagunas” de responsabilidad resultantes de su despliegue.

En 2023, el dilema de Matthias deja de ser una cuestión meramente académica. Es un problema real y práctico. Los sistemas de IA han sido responsables, al menos causalmente, de numerosos daños, como la discriminación en las sentencias y contrataciones basadas en IA y los accidentes mortales de los vehículos autoconducidos. Como era de esperar, la literatura académica y política sobre las “lagunas de responsabilidad” se ha disparado. El artículo de Matthias ha sido citado más de 650 veces (una cifra excepcionalmente alta para un artículo de filosofía), y los juristas y los responsables políticos han trabajado duro para tratar de aclarar y cerrar la brecha que Matthias identificó.

Sin embargo, lo interesante del debate sobre la brecha de responsabilidad es el supuesto que comparte la mayoría de sus participantes: que la responsabilidad humana es algo bueno. Es bueno que las personas asuman la responsabilidad de sus actos y que se les considere responsables cuando algo sale mal. Por el contrario, sería negativo que los sistemas de inteligencia artificial causaran estragos en el mundo sin que nadie asumiera la responsabilidad de esos estragos. Por lo tanto, debemos encontrar la manera de colmar o disolver las lagunas de responsabilidad, ya sea ampliando las normas jurídicas y morales existentes o introduciendo normas de responsabilidad más estrictas para el despliegue de los sistemas de IA.

Pero quizá la responsabilidad no sea siempre algo bueno. Tal vez, siguiendo la sugerencia original de Matthias, habría que aceptar algunas lagunas de responsabilidad.

Merece la pena tener en cuenta dos características de nuestro mundo. En primer lugar, nuestras prácticas de responsabilidad (es decir, nuestras normas y hábitos de culpar, avergonzar y castigar a los demás) tienen su lado oscuro. En segundo lugar, nuestra vida cotidiana está repleta de “elecciones trágicas”, o situaciones en las que tenemos que elegir entre dos acciones moralmente iguales o casi iguales. Ambas características tienen implicaciones para el debate sobre la brecha de responsabilidad.

En el lado oscuro de la responsabilidad, ha surgido toda una escuela de pensamiento que critica nuestras prácticas de responsabilidad, sobre todo en lo que respecta a la justicia penal. Gregg Caruso, profesor de filosofía de la Universidad Estatal de Nueva York, es uno de los líderes de esta corriente de pensamiento. En una conversación conmigo, argumentó que si “miras de cerca… descubrirás que hay vidas de trauma, pobreza y desventaja social que llenan el sistema penitenciario”. Por desgracia, nuestras actuales prácticas de responsabilidad, basadas en el ideal del libre albedrío y la justicia retributiva, no hacen nada por abordar seriamente este trauma. En palabras de Caruso, este sistema “considera el comportamiento delictivo como una cuestión principalmente de responsabilidad individual y pone fin a la investigación precisamente en el punto en que debería comenzar”. Si abandonáramos nuestro sistema de justicia retributiva, podríamos “adoptar prácticas y políticas más humanas y eficaces”. Caruso también señaló que nuestras emociones asociadas a la responsabilidad -lo que los filósofos llaman “actitudes reactivas“, como el resentimiento, la ira, la indignación y la culpa- son “a menudo contraproducentes y corrosivas para nuestras relaciones interpersonales” porque “dan lugar a reacciones defensivas u ofensivas en lugar de a la reforma y la reconciliación”.

Por supuesto, los defensores de nuestras prácticas de responsabilidad podrían responder alegando que mientras identifiquemos correctamente a los culpables y repartamos la culpa con justicia, todo el sufrimiento y el trauma que destaca Caruso no viene al caso. Se supone que el castigo es duro y, en cierto sentido, traumático. Esto, sin embargo, ignora la creciente evidencia que sugiere que a menudo estamos demasiado dispuestos a culpar a la gente, incluso cuando los hechos pueden no justificar nuestro deseo de hacerlo. Los estudios del psicólogo Mark Alicke, por ejemplo, sugieren que las personas a menudo se dedican a la validación de la culpa, lo que significa que primero encuentran a alguien a quien culpar y luego encuentran una forma de justificarlo. En conjunto, estas pruebas, unidas a los argumentos de Caruso, sugieren que nuestras prácticas actuales de responsabilidad pueden ser moralmente inhumanas y causar chivos expiatorios innecesarios, daños físicos y tormento psicológico.

Además, varios filósofos han destacado el carácter trágico de nuestras decisiones morales. Lisa Tessman, de la Universidad de Binghamton, es una de las defensoras más elocuentes y rotundas de esta idea. En sus libros, Moral Failure y When Doing the Right Thing is Impossible, destaca numerosos dilemas morales y elecciones a las que nos enfrentamos en la vida, cada una de las cuales implica un compromiso inevitable y difícil de evaluar entre consideraciones morales contrapuestas. He aquí un ejemplo sencillo: Imagine que tiene dos hijos. Los quiere a los dos y cree que ambos merecen moralmente la misma atención y amor. Sin embargo, como el mundo es como es, a menudo tendrá que elegir entre ellos, asistiendo al partido de fútbol de uno y perdiéndose el recital de piano del otro (o alguna variación sobre este tema). Esto es lo que significa enfrentarse a una elección trágica: verse obligado a elegir entre consideraciones morales inconmensurables y/o igualmente válidas. ¿Es común este fenómeno? Como me dijo Tessman, la intuición moral a menudo nos lleva “al veredicto de que estamos imposibilitados para hacer algo, como proteger a un ser querido, aunque seamos incapaces de hacerlo, o de llevar a cabo dos requisitos morales no negociables”. Tan común es la experiencia, de hecho, que Tessman considera que “la vida humana está llena de tragedia” porque “los humanos somos vulnerables a perder lo que valoramos profundamente y no podemos reemplazar… [y] a menudo nos encontramos en situaciones en las que no podemos proteger a otros de estas pérdidas.”

El ejemplo del padre y el hijo es un caso privado de elección trágica en el que hay poco en juego. Hay muchas decisiones públicas de alto riesgo que implican compromisos similares. Pensemos en las decisiones sobre la asignación de recursos médicos escasos (el dilema “¿Quién se queda con el respirador?” que surgió al principio de la pandemia de Covid-19) o la asignación de oportunidades sociales (becas, financiación). Cualquiera que haya participado en este tipo de decisiones sabrá que a menudo se convierten en elecciones arbitrarias entre candidatos con los mismos méritos. Mientras que algunas personas pueden ignorar la aparente tragedia inherente a tales decisiones, otras se angustian ante ellas. Tessman sostiene que esta angustia es una respuesta “adecuada” a la omnipresencia de la tragedia. Pero algunas respuestas no son tan adecuadas: Culpar moralmente a la gente por sus decisiones en esos contextos y castigarla por tomar la decisión que uno considera equivocada es perverso e injustificado. Y, sin embargo, a menudo la gente no puede resistir el impulso de hacerlo.

Estas dos consideraciones –que la responsabilidad tiene un lado oscuro y que las decisiones trágicas son habituales– nos dan motivos para aceptar al menos algunas lagunas de responsabilidad. Para ser más precisos, en cualquier contexto de toma de decisiones en el que a) nos enfrentemos a una elección trágica; b) responsabilizar a un ser humano en tal contexto supondría un riesgo de chivo expiatorio innecesario; y c) el sistema de IA sería capaz de tomar el mismo tipo de decisiones que un decisor humano, tenemos buenas razones para favorecer la delegación en máquinas, incluso si esto significa que nadie puede ser considerado responsable de los resultados.

Dicho de otro modo: Responsabilizarse unos a otros tiene costes psicológicos y sociales. Al menos en algunos casos, imponer esos costes está moralmente injustificado. Si, en esos casos, podemos delegar decisiones en máquinas, y esas máquinas no son obviamente “peores” que los humanos a la hora de tomar esas decisiones, ¿por qué no deberíamos hacerlo?

Es probable que las objeciones a esta propuesta no se hagan esperar.

En primer lugar, algunas personas podrían argumentar que la propuesta no es psicológicamente posible. La gente no se lo tragará. El instinto de encontrar un chivo expiatorio humano es demasiado fuerte. Pero hay algunas pruebas empíricas iniciales que sugieren que la gente sería receptiva. Matthias Uhl, psicólogo conductista de la Universidad Técnica de Ingolstadt (Alemania), lleva tiempo estudiando este fenómeno. Dice que la gente corriente no tiene “ningún problema” en asignar responsabilidades a los sistemas de IA, aunque “los éticos lo consideren un error de categoría”. Es más, en un estudio reciente realizado con sus colegas, descubrió que las personas podían reducir su responsabilidad delegando decisiones en las máquinas. El estudio permitía a las personas “transferir una tarea con consecuencias potencialmente perjudiciales para otra persona… a una máquina o hacerla ellas mismas”. Uhl y sus colegas descubrieron que “si la máquina fallaba … [los delegadores humanos] eran castigados menos severamente por la persona perjudicada que si fallaban ellos mismos”. No se producía el mismo efecto si delegaban la tarea en otro humano. Uhl, que se apresura a señalar que este hallazgo necesita una validación más sólida, sugiere no obstante que el experimento “parece ser una prueba de que la gente podría ser capaz de reducir con éxito la responsabilidad moral percibida mediante la delegación en máquinas”.

Otros podrían objetar que la propuesta no es moralmente posible. Aunque la gente esté menos dispuesta a castigar a los demás en caso de delegación en máquinas, no está moralmente justificado que lo haga. Si decido delegar alguna decisión trágica en una IA -como la decisión de asignar un equipo médico escaso-, sigo siendo responsable de tomar esa decisión porque he tomado la decisión de delegar. La gente puede culparme por ello y por las consecuencias de la delegación. La responsabilidad moral no desaparece, sino que retrocede un paso.

Sin embargo, esta objeción plantea dos problemas. En primer lugar, aunque exista responsabilidad por la decisión de delegar, es de carácter distinto a la responsabilidad de asignar el equipo médico. No se puede culpar al delegante de la asignación concreta que propone el sistema de IA. Hay una reducción neta del nivel general de culpa y del sufrimiento y castigo innecesarios que podrían derivarse de la decisión de asignar. La culpa moralmente justificable se reduce, si no se elimina. En segundo lugar, la objeción no va al grano. El argumento se basa en que hay casos en los que es injusto y moralmente costoso responsabilizar a los seres humanos de la decisión. La delegación debería ser una opción en esos casos.

Por último, algunos podrían objetar que aceptar las lagunas de responsabilidad en este caso sería dar el primer paso por una pendiente resbaladiza. ¿Qué ocurre con los actores malintencionados que quieren eludir la responsabilidad de sus actos? Como algunos han dicho, existe un riesgo real de que las empresas y los gobiernos “blanqueen” su responsabilidad moral y legal a través de máquinas. De hecho, ya lo estamos viendo. Pensemos en la negación de responsabilidad de Facebook por los contenidos maliciosos o que inciten al odio que la gente ve en su plataforma. Cuando se les cuestiona, intentan corregir el problema pero argumentan que no son ellos, sino el algoritmo. Pero, ¿no son ellos los que eligen crear y monetizar una plataforma con una regulación algorítmica particular? ¿No se les considera con razón responsables de ello? ¿Y no sugiere el experimento de Uhl que existe un peligro real de que no lo hagan?

Esta es, para mí, la objeción más seria a la propuesta. Incluso si hay algunos casos en los que las lagunas de responsabilidad son bienvenidas, también hay algunos (quizás muchos) casos en los que no lo son. Conseguir el equilibrio adecuado será difícil, pero el riesgo de delegación injustificada no es razón para rechazar la delegación justificada. Yo no abogaría por una externalización imprudente o universal a máquinas; debemos ser reflexivos y cuidadosos a la hora de elegir los contextos adecuados en los que externalizar. Sería conveniente revisar y auditar periódicamente nuestra decisión de externalizar. Pero esto no es motivo para no externalizar nunca. Tampoco es una razón para cerrar todas las brechas de responsabilidad. La naturaleza trágica de muchas opciones morales y el afán por castigar en exceso nos siguen dando razones para aceptarlas en algunos casos.

Articulo Original