La IA será utilizada por organizaciones humanitarias, esto podría profundizar las tendencias neocolonialistas

Print Friendly, PDF & Email
Share Button

por Dan McQuillan

La inteligencia artificial, o AI, está pasando por un período de expansión masiva. Esto no se debe a que las computadoras hayan logrado una conciencia similar a la humana, sino a los avances en el aprendizaje automático, donde las computadoras aprenden de enormes bases de datos cómo clasificar los datos nuevos. En la vanguardia están las redes neuronales que han aprendido a reconocer caras humanas o jugar a Go.

El reconocimiento de patrones en los datos también se puede usar como una herramienta de predicción. La IA se está aplicando a los ecocardiogramas para predecir las enfermedades del corazón, a los datos del lugar de trabajo para predecir si los empleados se van a ir, y a las redes sociales para detectar signos de depresión incipiente o tendencias suicidas. Cualquier paso de la vida donde hay datos abundantes, y eso significa prácticamente todos los aspectos de la vida, está siendo detectado por el gobierno o las empresas para la aplicación de la inteligencia artificial.

Una actividad que actualmente parece distante de IA es el humanitarismo; la organización de ayuda sobre el terreno a otros seres humanos en crisis debido a la guerra, el hambre u otro desastre. Pero las organizaciones humanitarias también adoptarán AI. ¿Por qué? Porque parece capaz de responder preguntas en el corazón del humanitarismo: preguntas sobre a quién deberíamos salvar y cómo ser efectivos a escala. La IA también suena fuertemente con los modos existentes de pensamiento y acción humanitarios, en particular los principios de neutralidad y universalidad. El humanitarismo (se cree) no toma partido, es imparcial en su aplicación y ofrece ayuda independientemente de los detalles de una situación local.

La forma en que el aprendizaje automático consume grandes cantidades de datos y produce predicciones indudablemente sugiere que puede captar la enormidad del desafío humanitario y proporcionar una respuesta impulsada por los datos. Pero la naturaleza de las operaciones de aprendizaje automático significa que realmente profundizarán algunos de los problemas del humanitarismo e introducirán otros propios.

Las matemáticas

Explorar estas preguntas requiere un breve desvío en las operaciones concretas del aprendizaje automático, si queremos evitar la desinformación y mistificación que se relaciona con el término IA. Porque no hay inteligencia en inteligencia artificial. Tampoco aprende realmente, aunque su nombre técnico es el aprendizaje automático.

IA es simplemente minimización matemática. ¿Recuerdas que en la escuela te ajustaría una línea recta a un conjunto de puntos, eligiendo la línea que minimiza las diferencias en general? El aprendizaje automático hace lo mismo para patrones complejos, ajustando las características de entrada a los resultados conocidos al minimizar una función de costo. El resultado se convierte en un modelo que se puede aplicar a nuevos datos para predecir el resultado.

Todos y cada uno de los datos pueden enviarse a través de algoritmos de aprendizaje automático. Cualquier cosa que se pueda reducir a números y etiquetar con un resultado se puede usar para crear un modelo. Las ecuaciones no conocen ni se preocupan si los números representan ventas de Amazon o víctimas del terremoto.

Esta banalidad del aprendizaje automático también es su poder. Es una compresión numérica generalizada de las preguntas que importan: no hay comprensión dentro del cálculo; los patrones indican correlación, no causalidad. La única inteligencia viene en el mismo sentido que la inteligencia militar; es decir, segmentación. Las operaciones consisten en minimizar la función de costo para optimizar el resultado.

Y los modelos producidos por el aprendizaje automático pueden ser difíciles de revertir en el razonamiento humano. ¿Por qué eligió a esta persona como con un riesgo de libertad condicional malo? ¿Qué representa ese patrón? No podemos decir necesariamente. Entonces hay una opacidad en el corazón de los métodos. No aumenta la acción humana, sino que la distorsiona.

Compartimentando el mundo. Zapp2Photo / Shutterstock.com

Lógica de los poderosos

El aprendizaje automático no solo toma decisiones sin dar razones, sino que modifica nuestra idea de la razón. Es decir, cambia lo que es cognoscible y lo que se entiende como real.

Por ejemplo, en algunas jurisdicciones de los EE. UU., Si un algoritmo produce una predicción de que una persona detenida probablemente volverá a delinquir, se le denegará la libertad bajo fianza. La búsqueda de patrones en los datos se convierte en una autoridad de cálculo que desencadena consecuencias sustanciales.

El aprendizaje automático, entonces, no es solo un método sino una filosofía maquínica donde se entiende que el cálculo abstracto tiene acceso a una verdad que se considera superior a la percepción sensorial de la percepción ordinaria. Y como tal, los cálculos de la ciencia de datos pueden terminar contando más que testimonios.

Por supuesto, el campo humanitario no es ingenuo sobre los peligros de la dataficción. Es bien sabido que el aprendizaje automático podría propagar la discriminación porque aprende de los datos sociales, que a menudo son parciales. Por lo tanto, las instituciones humanitarias naturalmente tendrán más cuidado que la mayoría para garantizar todas las salvaguardas posibles contra los datos de capacitación sesgados.

Pero el problema va más allá del prejuicio explícito. El efecto más profundo del aprendizaje automático es producir las categorías a través de las cuales pensaremos en nosotros mismos y en los demás. El aprendizaje automático también produce un cambio hacia la apropiación: la ejecución hipotecaria de futuros sobre la base de la correlación en lugar de la causalidad. Esto construye el riesgo de la misma manera que Twitter determina los temas de tendencia, asignando y reteniendo los recursos de una manera que demarca algorítmicamente a los merecedores y los que no lo merecen.

¿Qué agregará AI al orden disciplinario del campo de refugiados? Clemens Bilan / EPA

Quizás deberíamos estar particularmente preocupados por estas tendencias porque a pesar de sus mejores intenciones, la práctica del humanitarismo a menudo muestra tendencias neocoloniales. La lA afirmar neutralidad y universalidad, los algoritmos afirman la superioridad del conocimiento abstracto generado en otros lugares. Al incorporar la lógica de los poderosos para determinar qué sucede con las personas de la periferia, la IA humanitaria se convierte en un mecanismo neocolonial que actúa en lugar de un control directo.

Tal como están las cosas, el aprendizaje automático y la llamada IA ​​no serán ningún tipo de salvación para el humanitarismo. En cambio, profundizará las ya profundas dinámicas neocoloniales y neoliberales de las instituciones humanitarias a través de la distorsión algorítmica.

Pero ningún aparato es un sistema cerrado; el impacto del aprendizaje automático es contingente y puede cambiarse. Esto es tan importante para la IA humanitaria como para AI en general, ya que si una técnica alternativa no es movilizada por enfoques como los consejos populares, la próxima generación de escándalos humanitarios será impulsada por IA.

Share Button
This entry was posted in Artículos, DD.HH., Sociedad, Tecnología. Bookmark the permalink.

Comments are closed.