Artículos DD.HH. Inteligencia Artificial Sociedad

Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo

Print Friendly, PDF & Email



por Sara Degli-Esposti

Como seres humanos, deberíamos ser conscientes de que tenemos
muchos sesgos que se ven reflejados en las decisiones que tomamos cada
día. Este problema se extiende a nuestras creaciones, como sucede con la
Inteligencia Artificial (IA). Los algoritmos pueden repetir prejuicios
tan humanos como la tendencia a discriminar a partir del género y la
raza.

Los algoritmos son fórmulas matemáticas supuestamente neutras y objetivas. Entonces, ¿cómo puede ocurrir esto?

El siguiente es solo un ejemplo. En 2018, una investigación demostró cómo los algoritmos también pueden ser racistas.
Según el estudio, aquellas bases de datos compuestas por una mayoría de
caras blancas (entre un 80 % y un 85 %) tienen un 34 % de riesgo de
clasificar de forma errónea a las personas de color.

Este problema se vuelve dramático cuando afecta a la vida de las personas. Famoso es el caso del sistema COMPAS
que determina si hay que conceder la libertad condicional a los
detenidos en Estados Unidos. Aunque el algoritmo no use la raza como
argumento de entrada, la precisión del sistema se ve afectada por las
diferencias históricas entre blancos y negros y su relación con el
crimen. Esto supone, al final, una injusticia para estos últimos por
parte de un sistema que debería ser imparcial.

Estas consideraciones han abierto un debate sobre cómo programar algoritmos que respeten los criterios de equidad sin ser discriminatorios.
El problema no es de fácil solución. Los programadores tienen que
enfrentarse a cuestiones no solo técnicas, sino más bien legales.
Durante su trabajo deben tener en cuenta las definiciones jurídicas y
las leyes en vigor.

En Europa existe una preocupación por el tratamiento adecuado de los
datos sensibles. El artículo 9 de Reglamento General de Protección de
Datos (RGPD)
establece que algunas categorías de datos personales merecen especial
protección porque su tratamiento podría entrañar importantes riesgos
para los derechos y las libertades fundamentales. Se consideran
sensibles las opiniones políticas, las convicciones religiosas, la
afiliación sindical y el tratamiento de datos genéticos, biométricos
dirigidos a identificar de manera unívoca a una persona física,
relativos a la salud y la orientación sexual de una persona.

¿Cómo deberíamos proceder a la hora de desarrollar sistemas de
diagnóstico de enfermedades que usen de forma masiva datos sensibles?

Sin duda, habrá que contemplar la seguridad y privacidad de la información
en la fase de diseño del sistema . Como demuestran los ejemplos
anteriores, el tratamiento y el ciclo de vida del dato tienen un impacto
directo sobre la precisión de cualquier algoritmo que se base en
aprendizaje automático o en redes neuronales profundas. Por eso, muchos
de los códigos éticos que se han desarrollado hasta ahora incluyen temas
muy diversos entre los aspectos a tomar en cuenta.

La Alianza sobre Inteligencia Artificial para el Bienestar de la Sociedad y de las Personas
identifica seis áreas de acción: la seguridad, la transparencia, el
trabajo, la colaboración entre humanos y máquinas, la manipulación
social y el bien común.

Receta para una IA responsable

El 22 de mayo de 2019 la OECD adoptó sus Principios sobre la IA en los que se destacan los siguientes puntos:

  • La IA debe beneficiar a las personas y al planeta al impulsar el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  • Los sistemas de IA deben diseñarse de manera que respeten el
    Estado de derecho, los derechos humanos, los valores democráticos y la
    diversidad. También deben incluir las salvaguardias adecuadas –por
    ejemplo, permitir la intervención humana cuando sea necesario– para
    garantizar una sociedad justa y equitativa.
  • Debe haber transparencia y divulgación responsable en torno a los
    sistemas de IA para asegurar que las personas entiendan los resultados y
    puedan cuestionarlos.
  • Los sistemas de IA deben funcionar de forma robusta, segura y
    protegida a lo largo de su ciclo de vida y los riesgos potenciales deben
    ser evaluados y gestionados continuamente.
  • Las organizaciones y las personas que desarrollan, despliegan u
    operan sistemas de IA deben ser responsables de su correcto
    funcionamiento de acuerdo con los principios antes mencionados.

Cuestión de ética

Como podemos constatar leyendo estos principios, hablar de ética de
la IA va más allá de la filosofía moral. El debate abarca todas las
áreas de ciencias sociales, desde las políticas públicas y la economía,
pasando por los mecanismos de gobernanza y las instituciones que velen
por el respeto de los derechos humanos.

Aquí cabe destacar el sondeo de opinión que la iniciativa Moral Machine ha realizado para pulsar la aceptación social de los niveles de toma de decisión en vehículos autónomos.

El estudio recomienda evitar la tentación de otorgarnos una
superioridad moral que nos lleve a definir de modo unilateral los
cimientos de una IA ética. Hará falta el encuentro de muchas áreas de
conocimiento experto, diálogo y cruzar los confines de las disciplinas
en pos de marcos estables de reflexión que ayuden a despejar las dudas
sobre nuestra capacidad de desarrollar IA para el bienestar de la
humanidad.

Please follow and like us:
error