IA

Inteligencia artificial e irresponsabilidad algorítmica: ¿el diablo en la máquina?

Print Friendly, PDF & Email

por Ismael Al-Amoudi

La clásica película policial de 1995 The Usual Suspects gira en torno al interrogatorio policial de Roger “Verbal” Kint, interpretado por Kevin Spacey. Kint parafrasea a Charles Baudelaire, afirmando que “el mayor truco que hizo el diablo fue convencer al mundo de que no existía”. La implicación es que el Diablo es más efectivo cuando opera sin ser visto, manipulando y condicionando el comportamiento en lugar de decirle a la gente qué hacer. En la narrativa de la película, su papel es nublar el juicio y tentarnos a abandonar nuestro sentido de responsabilidad moral.

En nuestra investigación, vemos paralelismos entre esto y el papel de la inteligencia artificial (IA) en el siglo XXI. ¿Por qué? La IA tienta a las personas a abandonar el juicio y la responsabilidad moral de la misma manera. Al eliminar una variedad de decisiones de nuestra mente consciente, elimina el juicio de una desconcertante variedad de actividades humanas. Además, sin una comprensión adecuada de cómo lo hace, no podemos eludir sus efectos negativos.

El papel de la IA está tan ampliamente aceptado en 2020 que la mayoría de las personas, en esencia, lo desconocen por completo. Entre otras cosas, hoy en día los algoritmos de IA ayudan a determinar con quién salimos, nuestros diagnósticos médicos, nuestras estrategias de inversn y las calificaciones que obtenemos en los exámenes.

Serias ventajas, efectos insidiosos

Con un acceso generalizado a datos granulares sobre el comportamiento humano obtenidos de las redes sociales, la IA ha penetrado en los sectores clave de la mayoría de las economías desarrolladas. Para problemas manejables como el análisis de documentos, generalmente se compara favorablemente con alternativas humanas que son más lentas y más propensas a errores, lo que genera enormes ganancias de eficiencia y reducciones de costos para quienes lo adoptan. Para problemas más complejos, como la elección de un compañero de vida, el papel de la IA es más insidioso: enmarca las elecciones y “empuja” a los que eligen.

Es por estos problemas más complejos que vemos un riesgo sustancial asociado con el aumento de la IA en la toma de decisiones. Toda elección humana implica necesariamente transformar entradas (información relevante, sentimientos, etc.) en salidas (decisiones). Sin embargo, toda elección también implica inevitablemente un juicio ; sin juicio, podríamos hablar de una reacción más que de una elección. El aspecto crítico de la elección es lo que permite a los humanos atribuir responsabilidad. Pero a medida que la IA toma decisiones más complejas e importantes, o al menos las impulsa, la atribución de responsabilidad se vuelve más difícil. Y existe el riesgo de que tanto los actores del sector público como el privado acepten esta erosión del juicio y adopten algoritmos de inteligencia artificial precisamente para protegerse de la culpa.

En un artículo de investigación reciente, hemos examinado cómo la confianza en la IA en las políticas de salud puede ofuscar importantes discusiones morales y, por lo tanto, “desresponsabilizar” a los actores del sector de la salud.

Erosión del juicio y la responsabilidad

Los conocimientos clave de nuestra investigación son válidos para una variedad más amplia de actividades. Argumentamos que la erosión del juicio engendrada por la IA desdibuja, o incluso elimina, nuestro sentido de responsabilidad. Las razones son:

Los sistemas de IA funcionan como cajas negras. Podemos conocer la entrada y la salida de un sistema de IA, pero es extraordinariamente complicado rastrear cómo se dedujeron las salidas de las entradas. Esta opacidad aparentemente intratable genera una serie de problemas morales. Una caja negra puede ser causalmente responsable de una decisión o acción, pero no puede explicar cómo ha llegado a esa decisión o recomendado esa acción. Incluso si los expertos abren la caja negra y analizan las largas secuencias de cálculos que contiene, estos no pueden traducirse en nada parecido a una justificación o explicación humana.

Culpar a los sistemas impersonales de reglas. Los académicos organizacionales han estudiado durante mucho tiempo cómo las burocracias pueden absolver a las personas de los peores crímenes. Los textos clásicos incluyen La modernidad y el Holocausto de Zygmunt Bauman y Eichmann en Jerusalén de Hannah Arendt. Ambos estaban intrigados por cómo personas decentes podían participar en atrocidades sin sentirse culpables. Este fenómeno fue posible porque los individuos transfirieron la responsabilidad y la culpa a las burocracias impersonales y sus líderes. La introducción de la inteligencia artificial intensifica este fenómeno porque ahora incluso los líderes pueden transferir la responsabilidad a los sistemas de inteligencia artificial que emitieron recomendaciones de políticas y enmarcaron opciones de políticas.

Atribuir la responsabilidad a los artefactos en lugar de a las causas fundamentales. Los sistemas de IA están diseñados para reconocer patrones. Pero, al contrario que los seres humanos, no comprenden el significado de estos patrones. Por lo tanto, si la mayoría de los delitos en una ciudad son cometidos por un determinado grupo étnico, el sistema de inteligencia artificial identificará rápidamente esta correlación. Sin embargo, no considerará si esta correlación es un artefacto de causas más profundas y complejas. Por lo tanto, un sistema de inteligencia artificial puede instruir a la policía para que discrimine entre posibles delincuentes en función del color de la piel, pero no puede comprender el papel que desempeñan el racismo, la brutalidad policial y la pobreza en la generación de conductas delictivas en primer lugar.

Profecías autocumplidas que no son culpables de nadie. Las IA más utilizadas se alimentan de datos históricos. Esto puede funcionar en el caso de detectar afecciones fisiológicas como cánceres de piel. El problema, sin embargo, es que la clasificación de categorías sociales por IA puede operar como una profecía autocumplida a largo plazo. Por ejemplo, los investigadores de la discriminación de género basada en la inteligencia artificial reconocen la intratabilidad de los algoritmos que terminan exagerando, sin introducir nunca, prejuicios sociales preexistentes contra las mujeres, las personas transgénero y las personas no binarias.

¿Qué podemos hacer?

No existe una solución milagrosa contra las tendencias de desresponsabilización de la IA y no es nuestro papel, como académicos y científicos, decidir cuándo se debe dar por sentado la información basada en la IA y cuándo se debe cuestionar. Es mejor dejar esta decisión a la deliberación democrática. Sin embargo, nuestro papel es enfatizar que, en el estado actual del arte, los cálculos basados ​​en IA operan como cajas negras que dificultan más, en lugar de menos, la toma de decisiones morales.

Fuente: The Conversation

A %d blogueros les gusta esto: