IA

Los riesgos de la inteligencia artificial y algunas soluciones – BID

Por Cristina Pombo, coordinadora de fAIr LAC dentro del BID.

Los riesgos de la inteligencia artificial (IA) se han vuelto un tema cada vez más recurrente y relevante dado que estas tecnologías llegaron para quedarse y están presentes de mil maneras en nuestra vida diaria. En este artículo rescatamos información importante sobre la IA, los riesgos que a nivel social se han asociado a ella, así como recursos para mitigarlos.

Sobre la inteligencia artificial

La adopción de la IA continúa creciendo a un ritmo sin precedentes a nivel mundial, algunos números que dan cuenta de esto se comparten en el reporte del 2022 de McKinsey sobre tendencias tecnológicas:

  • Globalmente, la adopción de IA ha aumentado en un 56% entre 2015 y 2021.
  • La velocidad de entrenamiento de los modelos de IA aumentó en 94.4% desde 2018.
  • En comparación con el 2015, hay 30 veces más patentes presentadas usando esta tecnología.

La revolución que ha traído la inteligencia artificial se extiende también a la esfera social, ya que estas tecnologías pueden ayudar en el proceso de toma de decisiones y así generar políticas más igualitarias y eficientes. No solo eso, un uso responsable de la IA podría mejorar nuestros empleos, servicios de salud, calidad educativa, etc. Desde que se empezó a hablar del potencial para mejorar el bienestar social que tiene la IA, muchos gobiernos y emprendedores han dirigido su atención hacia la solución de un sinnúmero de problemas sociales y creación de políticas públicas efectivas.

¿Cuáles son los riesgos de la inteligencia artificial?

El uso de sistemas de inteligencia artificial en los procesos de toma de decisiones conlleva ciertos riesgos debido a los potenciales impactos directos o indirectos de la implementación de estas tecnologías. Algunos de estos riesgos incluyen:

  • La filtración de los datos personales que pueden comprometer el bienestar de las personas.
  • La extrema vigilancia y posterior manipulación por parte de las organizaciones privadas o gubernamentales con acceso a la información que alimenta a las tecnologías de inteligencia artificial.
  • Las “cámaras de eco” o “filtros burbuja” que se presentan cuando se está expuesto a las mismas ideas, noticias y/o hechos, lo que es un fenómeno común entre los usuarios de redes sociales y termina fortaleciendo sesgos preconcebidos. Esto es específicamente peligroso entre los tomadores de decisiones en cualquier área, pero aún más entre aquellos que trabajan en políticas públicas.
  • La subrepresentación en los modelos creados por la inteligencia artificial, especialmente en cuestiones relacionadas al acceso a la salud y a la educación.
  • Tener la información y no un plan de acción. Tan importante es contar con la información necesaria para abordar una problemática social, como haber desarrollado una hoja de ruta para solucionarla.

Afortunadamente, este tipo de riesgos pueden anticiparse y mitigarse si nos aseguramos de que los implicados en el desarrollo y uso de estas tecnologías establezcan protocolos claros para cada etapa de su ciclo de vida. Este enfoque facilita la organización del debate y la identificación de los riesgos específicos asociados a cada etapa, cuando, dada la naturaleza iterativa de la IA, un enfoque lineal no es adecuado.

Soluciones para los riesgos de la inteligencia artificial

A nivel regional, el BID, a través de su iniciativa fAIr LAC, ha colaborado con los gobiernos de América Latina y el Caribe (ALC) para promover el uso y la adopción responsable de la IA. En respuesta al trabajo realizado con el sector público y privado, fAIr LAC también ha centrado esfuerzos en el desarrollo de recursos para generar consciencia sobre los beneficios potenciales y también sobre los grandes riesgos que conlleva la inteligencia artificial. Estos recursos incluyen, no sólo documentos generales, sino también herramientas específicas para llevar los principios de estas tecnologías a la práctica.

El más reciente recurso es fAIr LAC a la mano, donde se encuentran 5 herramientas abiertas y disponibles para quienes lideren proyectos que usan IA y para equipos que directamente desarrollen soluciones y quieran cumplir con principios éticos y de reducción de riesgos:

  1. Una autoevaluación ética para sistemas desarrollados en agencias de gobierno. Esta herramienta es un cuestionario que revisa los aspectos más importantes que se deben tener en cuenta para mitigar potenciales riesgos éticos tanto en la fase de diseño como en el desarrollo de una solución de IA.  
  2. Como espejo, una autoevaluación para el ecosistema emprendedor dirigido tanto empresas que usan IA en sus servicios como a las que lo desarrollan.
  3. Un manual para quien esté dirigiendo, desde una entidad pública, un proyecto que use sistemas de soporte de decisión. Es una guía práctica que acompaña a los responsables de formular proyectos con IA en las diferentes etapas de decisión, y también los alerta sobre los posibles riesgos éticos asociados que deben tener en cuenta durante el diseño, desarrollo y validación del modelo, así como en su posterior despliegue y monitoreo.
  4. Un manual para el equipo técnico encargado del desarrollo del modelo. Utilizando el ciclo de vida de los sistemas de IA como marco de análisis, el manual ofrece orientación técnica a los directores de proyecto, así como a los equipos desarrolladores del modelo (a los que llamamos el equipo técnico), para mejorar sus procesos de toma de decisiones y sus resultados en la construcción de una solución de IA.
  5. Y finalmente, pensando en el despliegue de una solución de IA y en la necesidad de rendición de cuentas, compartimos la Guía de auditoría algorítmica. En ella se resaltan las implicaciones y consecuencias que tiene el uso de sistemas automatizados en la toma o soporte de las decisiones que afectan a las personas, con el fin de entender la necesidad de implementar una auditoría y el proceso que esta conlleva.

Original