Este hombre fue despedido por un computador, la IA real podría haberlo salvado

Print Friendly, PDF & Email

por Adrian Hopgood

Ibrahim Diallo fue presuntamente despedido por una máquina. Reportes de noticias recientes retransmitieron la creciente frustración que sintió cuando su pase de seguridad dejó de funcionar, su acceso al sistema de computación fue desactivado, y finalmente fue sacado del edificio por el personal de seguridad. Sus gerentes fueron incapaces de ofrecer una explicación, y no anularon el sistema.

Algunos podrían pensar que esto fue una muestra de lo que vendrá a medida que a la inteligencia artificial se le dé más poder sobre nuestras vidas. Personalmente, llegué a la conclusión opuesta. Diallo fue despedido porque un gerente anterior no había renovado su contrato con el nuevo sistema informático y varios sistemas automatizados entraron en acción. Los problemas no fueron causados por la IA, sino por su ausencia.

Los sistemas no mostraban inteligencia basada en el conocimiento, lo que significa que no tenían un modelo diseñado para encapsular el conocimiento (como la experiencia de los recursos humanos) en forma de reglas, texto y enlaces lógicos. Del mismo modo, los sistemas no mostraban inteligencia computacional -la capacidad de aprender de los conjuntos de datos- como el reconocimiento de los factores que podrían llevar al despido. De hecho, parece que Diallo fue despedido como resultado de un sistema anticuado y mal diseñado disparado por un error humano. Ciertamente, la IA no tiene la culpa, y puede ser la solución.

La conclusión que saco de esta experiencia es que algunas funciones de recursos humanos están maduras para ser automatizadas por la IA, especialmente porque, en este caso, la automatización tonta ha demostrado ser tan inflexible e ineficaz. La mayoría de las organizaciones grandes tendrán un manual de personal que puede ser codificado como un sistema automatizado y experto con reglas y modelos explícitos. Muchas empresas han creado sistemas de este tipo en una serie de ámbitos que implican un conocimiento especializado, no sólo en recursos humanos.

Pero un sistema de IA más práctico podría usar una mezcla de técnicas para hacerlo más inteligente. La manera en que las reglas deben aplicarse a los matices de las situaciones reales podría aprenderse de los registros de RRHH de la empresa, de la misma manera que los sistemas legales de derecho consuetudinario como los precedentes de uso de Inglaterra establecidos por casos anteriores. El sistema podría revisar su razonamiento a medida que se dispusiera de más pruebas en cada caso utilizando lo que se conoce como “actualización bayesiana“. Un concepto de IA llamado “lógica difusa” podría interpretar situaciones que no son en blanco y negro, aplicando evidencias y conclusiones en diferentes grados para evitar el tipo de decisiones severas que llevaron al despido de Diallo.

La necesidad de varios enfoques a veces se pasa por alto en la ola actual de entusiasmo excesivo por los algoritmos de “aprendizaje profundo”, complejas redes neuronales artificiales inspiradas por el cerebro humano que pueden reconocer patrones en grandes conjuntos de datos. Como eso es todo lo que pueden hacer, algunos expertos abogan ahora por un enfoque más equilibrado. Los algoritmos de aprendizaje profundo son excelentes para el reconocimiento de patrones, pero ciertamente no muestran una comprensión profunda.

Usar la IA de esta manera probablemente reduciría los errores y, cuando ocurrieran, el sistema podría desarrollar y compartir las lecciones con la IA correspondiente en otras compañías para evitar errores similares en el futuro. Eso es algo que no se puede decir de las soluciones humanas. Un buen gerente humano aprenderá de sus errores, pero es probable que el siguiente gerente repita los mismos errores.

Entonces, ¿cuáles son las desventajas? Uno de los aspectos más llamativos de la experiencia de Diallo es la falta de humanidad demostrada. Se tomó una decisión, aunque por error, pero no se comunicó ni se explicó. Una IA puede cometer menos errores, pero ¿sería mejor para comunicar sus decisiones? Creo que la respuesta es probablemente no.

Perder su trabajo y su sustento es un momento estresante y emocional para cualquiera, excepto para los empleados más frívolos. Es un momento en el que se requiere sensibilidad y comprensión. Por lo tanto, el contacto humano me parece esencial, por muy convincente que sea el chatbot de Inteligencia Artificial.

Un empleado despedido puede sentir que ha sido agraviado y puede desear impugnar la decisión a través de un tribunal. Esta situación plantea la cuestión de quién fue responsable de la decisión original y quién la defenderá ante los tribunales. Sin duda, ha llegado el momento de abordar las cuestiones jurídicas y éticas planteadas por el auge de la IA, que todavía se encuentra en su infancia.

Please follow and like us:
This entry was posted in Artículos, Economía, Inteligencia Artificial, Sociedad. Bookmark the permalink.

Comments are closed.