IA Pensamiento crítico

Cómo los algoritmos te discriminan por origen racial y por género – The Huffington Post

Por Marina Velasco

Imágenes en Twitter que ocultan la cara de Barack Obama, sistemas de predicción de delitos que sospechan más de la población negra, 26.000 familias –la mayoría de origen migrante– acusadas injustamente de fraude. Son tres ejemplos reales, con menor o mayor repercusión, de que los algoritmos y la inteligencia artificial (IA) tienen sesgos raciales, entre otros.

El caso de Twitter fue aparentemente subsanado por la compañía –resulta que su algoritmo no estaba entrenado para reconocer caras negras–; el segundo caso fue destapado por ProPublica en Estados Unidos e investigado después por el MIT, que concluyó que “un algoritmo judicial justo es imposible”; el tercer caso llegó mucho más lejos: debido a este escándalo el Gobierno de Países Bajos dimitió en bloque en enero de 2021.

Fue Eva González Pérez, una abogada de origen español, quien detectó en 2014 que algo raro pasaba en Holanda, al observar que varias familias dejaban de llevar a sus hijos a los centros infantiles que dirigía su marido. La abogada se puso a investigar; seis años después, un tribunal neerlandés declaraba ilegal el sistema SyRI, por el que el Gobierno de Países Bajos establecía qué ciudadanos eran más propensos a defraudar a Hacienda a la hora de concederles ayudas sociales, señalando por defecto a la población de origen migrante. El resultado ya se sabe: el Ejecutivo liderado por Mark Rutte cayó, sí, pero entretanto más de 20.000 familias fueron víctimas de una acusación injusta que les llevó a endeudarse por las elevadas multas, e incluso a perder su casa y su salud.

Cuando se le pregunta a Youssef M. Ouled qué les llevó a él y a otros comunicadores a crear AlgoRace, contesta haciendo referencia a todo lo anterior. “Estamos inundados de algoritmos, están en todos los ámbitos de la vida. Y los hay positivos, pero la mayoría también reproducen sesgos racistas y de género”, apunta. Por algo el lema de la organización AlgoRace es “(Des)racializando la IA”.

¿Quiere decir esto que la inteligencia artificial es racista? No en sí misma. Pero sí tiende a perpetuar sesgos racistas, por varios motivos.

“Un algoritmo no es racista ni deja de serlo, sino que se limita a ser educado o entrenado con una serie de datos que provocan una reacción determinada”, explica Enrique Dans, investigador sobre Sistemas y Tecnologías de Información. “¿Cuál es el problema? Que las recolecciones de datos, las conexiones con las que los educamos, sí que pueden ser perfectamente racistas”, plantea Dans, autor de Viviendo en el futuro: Claves sobre cómo la tecnología está cambiando nuestro mundo.

Quién los diseña y en qué contexto

Youssef M. Ouled coincide en que “los algoritmos, per se, no son racistas”, pero el periodista va más allá y habla del “contexto” en que se circunscriben. “Si miramos el campo en el que se desarrollan, analizan, diseñan y discuten los sistemas de inteligencia artificial, compuestos por algoritmos, nos encontramos con un mundo muy masculinizado y, por supuesto, blanco. En ese contexto, muchos de los entrenamientos que se dan a los algoritmos para que tengan una funcionalidad van con los sesgos implícitos que tiene la propia persona que los diseña, que los prueba, etcétera”, explica el periodista y coordinador del área antidiscriminación en Rights International Spain.

Por eso hubo una época en la que Twitter no reconocía rostros de personas negras. “La tecnología del reconocimiento facial ha sido desarrollada y entrenada sobre rostros de personas blancas, sin tener en cuenta que hay personas que no son blancas, la mayoría, de hecho”, sostiene Ouled. El resultado puede ser ‘anecdótico’, como el experimento que desveló el racismo de Twitter, o puede llevar a que una persona inocente sea detenida al ser confundida con un delincuente con el que sólo compartía color de piel.

Ouled señala que “los algoritmos no dejan de ser una receta para llevar a cabo una función”; quien seleccione e introduzca los pasos de esa receta estará orientando finalmente al algoritmo, de modo que habrá sesgos en mayor o menor medida. Como afirmaba el investigador peruano Omar Flórez en una entrevista con la BBC: “El algoritmo mismo es una opinión”.

No obstante, garantizar la diversidad en las plantillas del sector tecnológico no sería suficiente para poner fin a los sesgos raciales o incluso de género, lo cual complica un poco más el panorama. Como explica Enrique Dans, son las propias series de datos que maneja el algoritmo las que inducen a un resultado sesgado. El investigador lo ilustra con un ejemplo de un banco estadounidense que trata de calcular los riesgos al conceder un crédito a alguien.

“Históricamente, en Estados Unidos la población negra ha tenido más problemas para devolver sus préstamos, lo cual es comprensible teniendo en cuenta la discriminación histórica que han sufrido, que les ha llevado a tener peor poder adquisitivo, etcétera”, plantea Dans. Pues bien, aunque el banco en cuestión no guarde registro del origen étnico de sus clientes, “es posible que la estadística avanzada que usa el algoritmo llegue a la conclusión de que es mejor denegar los préstamos a personas con unos nombres determinados, o que viven en unos barrios determinados o con cualquier característica que pueda estar correlacionada con la variable racial”, apunta el investigador. “En este caso, se estaría permitiendo que una serie histórica de datos hiciese que el algoritmo heredara un comportamiento determinado que consolida estereotipos raciales”, concluye.

De nuevo, Youssef M. Ouled apela a la relevancia del “contexto de racismo estructural”, por ejemplo cuando se utiliza un algoritmo para predecir el crimen, ya sea con el sistema Compas en EEUU o con el de RisCanvi en Cataluña. “Si las personas más identificadas a nivel policial son racializadas, las personas más denunciadas son racializadas, las personas que más contacto tienen con la institución policial son racializadas y metes todo esto a un sistema de datos para que extraiga conclusiones por sí mismo, al final va a acabar reproduciendo el mismo racismo institucional que ya existe”, sostiene.

Según un estudio de la Universidad de Granada, la Policía en España para a las personas de origen africano 42 veces más que a las personas caucásicas; a los gitanos los paran 12 veces más, a los magrebíes 10 veces más y a las personas latinoamericanas, 8 veces más que a alguien con rasgos caucásicos. Es decir, si el sistema en el que vivimos no es neutral, “la inteligencia artificial no es neutral”, zanja Ouled.

Los algoritmos también discriminan a las mujeres

Algo similar puede producirse –y se produce– con el género. El ejemplo más claro está en Amazon. En 2018, Reuters sacó a la luz que la compañía estadounidense había tenido que desechar un método de selección de currículos porque discriminaba claramente a las mujeres.

“El mundo de la tecnología siempre ha sido predominantemente masculino”, constata Enrique Dans. De este modo, y sin necesidad de incluir ninguna variable relacionada con el género, se vio que el algoritmo de Amazon “tendía a no seleccionar candidatas para determinados puestos de trabajo”, ya que los registros históricos con los que se había entrenado al sistema eran básicamente candidaturas de hombres.

Cómo evitar (en la medida de lo posible) los sesgos

Para Enrique Dans, la clave no estaría tanto en la transparencia como en la necesidad de que haya una revisión exhaustiva de los resultados a posteriori. Algo así como ‘vigilar’ de cerca al algoritmo para prevenir, reducir y corregir los sesgos. “Lo único que puedes hacer es un análisis muy cuidadoso y muy detallado de los resultados que te da para poder comprobar, a posteriori, si efectivamente hay sesgos y discriminación”, defiende el investigador.

“Lo que hace el algoritmo es perpetuar, o incluso amplificar, el sesgo que había en los datos. Como el sesgo de los datos no es fácil de observar, tenemos que observarlo al otro lado, a la salida del algoritmo”, propone Dans.

Dicho de otra manera: “Si se entrena a un algoritmo con unas series de datos sin establecer ningún tipo de prevención al respecto, lo que te da de manera natural es un algoritmo que estadísticamente tiende a sostener y a perpetuar la discriminación”, advierte Dans. Por ello “no se puede dejar todo a la estadística; tiene que haber supervisión”, afirma rotundo el investigador.

Youssef M. Ouled recuerda que precisamente el Gobierno se comprometió a crear en 2022 una Agencia Española de Supervisión de Inteligencia Artificial para auditar algoritmos de redes sociales, administraciones públicas y empresas. El anuncio llegó en diciembre de 2021, pero “no hemos vuelto a saber nada”, resume Ouled.

Original