Artículos IA

Para entender los problemas de la IA, fíjese en los atajos que se han tomado para crearla – The Conversation

por Nello Cristianini

Una máquina sólo puede “hacer lo que sabemos ordenarle que haga”, escribió Ada Lovelace, pionera de la informática en el siglo XIX. Esta tranquilizadora afirmación se refería a la descripción que hizo Charles Babbage del primer ordenador mecánico.

Lady Lovelace no podía saber que en 2016, un programa llamado AlphaGo, diseñado para jugar y mejorar en el juego de mesa “Go”, no solo sería capaz de derrotar a todos sus creadores, sino que lo haría de formas que estos no podrían explicar.

En 2023, el chatbot de IA ChatGPT lleva esto a otro nivel, manteniendo conversaciones en varios idiomas, resolviendo acertijos e incluso superando exámenes legales y médicos. Nuestras máquinas son ahora capaces de hacer cosas que nosotros, sus creadores, no sabemos “cómo ordenarles que hagan”.

Esto ha provocado tanto entusiasmo como preocupación por el potencial de esta tecnología. Nuestra ansiedad se debe a que no sabemos qué esperar de estas nuevas máquinas, tanto en lo que se refiere a su comportamiento inmediato como a su evolución futura.

Podemos darles algún sentido, así como a los riesgos, si consideramos que todos sus éxitos, y la mayoría de sus problemas, proceden directamente de la receta concreta que estamos siguiendo para crearlas.

La razón por la que las máquinas son ahora capaces de hacer cosas que nosotros, sus creadores, no entendemos del todo es porque se han vuelto capaces de aprender de la experiencia. AlphaGo se hizo tan bueno jugando más partidas de Go de las que un humano podría encajar en toda su vida. Del mismo modo, ningún humano podría leer tantos libros como ChatGPT ha absorbido.

Reducir la ansiedad

Es importante comprender que las máquinas se han vuelto inteligentes sin pensar de forma humana. Este hecho puede reducir en gran medida la confusión y, por tanto, la ansiedad.

La inteligencia no es una capacidad exclusivamente humana, como le dirá cualquier biólogo, y nuestro tipo específico de inteligencia no es ni su cima ni su destino. Puede que a algunos les cueste aceptarlo, pero la inteligencia tiene más que ver con que los pollos crucen la carretera con seguridad que con escribir poesía.

En otras palabras, no debemos esperar necesariamente que la inteligencia de las máquinas evolucione hacia alguna forma de conciencia. La inteligencia es la capacidad de hacer lo correcto en situaciones desconocidas, y esto se puede encontrar en las máquinas, por ejemplo las que recomiendan un nuevo libro a un usuario.

Si queremos entender cómo manejar la IA, podemos volver a una crisis que afectó a la industria a finales de los años 80, cuando muchos investigadores seguían intentando imitar lo que creíamos que hacían los humanos. Por ejemplo, intentaban comprender las reglas del lenguaje o del razonamiento humano para programarlas en máquinas.

Eso no funcionó, así que acabaron tomando algunos atajos. Este paso podría convertirse en una de las decisiones más importantes de nuestra historia.

Bifurcación en el camino

El primer atajo consistió en basar las decisiones en patrones estadísticos encontrados en los datos. Esto eliminaba la necesidad de comprender realmente los fenómenos complejos que queríamos que las máquinas emularan, como el lenguaje. La función de autocompletar de tu aplicación de mensajería puede adivinar la siguiente palabra sin entender tus objetivos.

Aunque otros ya habían tenido ideas similares, el primero en hacer que este método funcionara de verdad y se mantuviera fue probablemente Fredrick Jelinek, de IBM, que inventó los “modelos estadísticos del lenguaje”, los antepasados de todos los GPT, mientras trabajaba en traducción automática.

A principios de los años 90, resumió ese primer atajo diciendo: “Cada vez que despido a un lingüista, aumenta el rendimiento de nuestros sistemas”. Aunque el comentario pudiera haber sido una broma, reflejaba un cambio real en el enfoque de la IA, que se alejaba de los intentos de emular las reglas del lenguaje.

Este enfoque se extendió rápidamente a otros ámbitos, introduciendo un nuevo problema: la obtención de los datos necesarios para entrenar algoritmos estadísticos.

Crear los datos específicamente para las tareas de entrenamiento habría sido costoso. Se hizo necesario un segundo atajo: en su lugar, los datos podían obtenerse de la web.

En cuanto a conocer la intención de los usuarios, como en los sistemas de recomendación de contenidos, se encontró un tercer atajo: observar constantemente el comportamiento de los usuarios e inferir de él en qué podrían hacer clic.

Al final de este proceso, la IA se transformó y nació una nueva receta. Hoy, este método se encuentra en todas las herramientas de traducción, recomendación y respuesta de preguntas en línea.

Combustible para funcionar

A pesar de su éxito, esta receta también crea problemas. ¿Cómo podemos estar seguros de que las decisiones importantes se toman de forma justa, cuando no podemos inspeccionar el funcionamiento interno de la máquina?

¿Cómo impedir que las máquinas acumulen nuestros datos personales, cuando éste es el combustible que las hace funcionar? ¿Cómo se puede esperar que una máquina impida que los contenidos nocivos lleguen a los usuarios, cuando está diseñada para aprender lo que hace que la gente haga clic?

No ayuda que hayamos desplegado todo esto en una posición muy influyente en el centro mismo de nuestra infraestructura digital, y que hayamos delegado muchas decisiones importantes en la IA.

Por ejemplo, los algoritmos, en lugar de los responsables humanos, dictan lo que se nos muestra en las redes sociales en tiempo real. En 2022, el forense que dictaminó sobre la trágica muerte de Molly Russell, de 14 años, culpó en parte a un algoritmo de mostrar material nocivo a la niña sin que nadie se lo pidiera.

Como estas preocupaciones derivan de los mismos atajos que hicieron posible la tecnología, será difícil encontrar buenas soluciones. Esta es también la razón por la que las decisiones iniciales de la autoridad italiana de privacidad de bloquear ChatGPT crearon alarma.

En un principio, la autoridad planteó la cuestión de que los datos personales se recogían de la web sin base legal, y de que la información proporcionada por el chatbot contenía errores. Esto podría haber representado un serio desafío a todo el planteamiento, y el hecho de que se resolviera añadiendo cláusulas legales de exención de responsabilidad, o cambiando los términos y condiciones, podría ser un anticipo de futuras luchas regulatorias.

Necesitamos buenas leyes, no agoreros. El paradigma de la IA cambió hace tiempo, pero no fue seguido de un cambio correspondiente en nuestra legislación y cultura. Ahora ha llegado ese momento.

Se ha iniciado una importante conversación sobre lo que deberíamos querer de la IA, y esto requerirá la participación de diferentes tipos de académicos. Esperemos que se base en la realidad técnica de lo que hemos construido y por qué, en lugar de en fantasías de ciencia ficción o escenarios catastrofistas.

Original