Artículos

La inteligencia artificial ya es un arma, ¿podemos luchar contra ella?

Es difícil no convertir la tecnología en un arma, especialmente cuando se destina un gran fondo de capital para lograr precisamente eso. Por ejemplo, los satélites GPS que hoy nos ayudan a movernos fueron en su día un proyecto militar de la marina estadounidense hasta que el 1 de mayo del 2000 Bill Clinton ordenó que se apagase la señal de interferencia que impedía su uso civil (y los ataques al sistema por parte de otras potencias).

Incluso herramientas aparentemente inofensivas y pragmáticas, como martillos o las hachas, fueron rápidamente weaponizadas (transformadas en armas) en los inicios de la tecnología; hasta tal punto que las palabras herramienta y arma guardan semejanzas en algunos lenguajes antiguos, como el latín (tool/telum). Con este guiño juegan en la película Arrival (2016), en la que unos alienígenas usan la misma expresión para ambos conceptos.

Aunque la inteligencia artificial no surgió como un arma per se, uno de los primeros usos prácticos de un algoritmo complejo y automatizado se usó para descifrar la máquina nazi de encriptación Enigma, y hoy día ya se han dado los primeros grandes pasos para convertir la inteligencia artificial en un arma.

¿Cómo puede usarse la inteligencia artificial como un arma?

La inteligencia artificial no deja de ser una herramienta. Compleja, pero no muy diferente en su base a la hoz para siega que hoy acompaña las películas de terror, un apero de labranza que terminó evolucionando en las cimitarras curvas del imperio persa. El mismo objeto que sirve para recoger el grano puede ser usado a la hora de armar un ejército.

En un mundo digital, en el que los peones son procesadores armados con algoritmos, las víctimas (económicas, no mortales) son humanos descuidados. Pongamos un ejemplo.

En un experimento de la marca ZeroFOX se intentó ver quién sería más efectivo a la hora de engañar a los usuarios para que hiciesen clic en enlaces fraudulentos: ¿un humano o una máquina artificial?

arma inteligencia artificial servidor programa

Una vez más (recordemos que una red neuronal ya es capaz de encontrar piezas de Lego), la velocidad y aprendizaje de la máquina dejó muy atrás a la capacidad humana. Mientras que estos últimos podían escribir una media de 1,075 tweets por minuto, una IA llamada SNAP_R consiguió subir hasta los 6,75 tweets/min, consiguiendo 275 víctimas (todas personas, claro). El humano “solo” consiguió engañar a 49.

Hemos hablado en alguna ocasión de los delitos basados en la tecnología, entre los que podemos destacar el programa de IA de la compañía Lyrebird que se puede usar para que un algoritmo aprenda a imitar a una persona.

Sin embargo, el grueso de los ataques futuros por parte que las IA tendrán más parecido a los ataques DDoS que a clics maliciosos o a suplantaciones de identidad. Las IA son programas en servidores, no robots, y basan su fuerza en potencia de cálculo, no en una mejor condición física que nosotros.

Todavía existe cierto miedo a que los robots se alcen contra nosotros. Brian Wallace, CMO de la compañía i.am+, en una entrevista para Gizmodo, comentó que «El término IA es a menudo malinterpretado y mucha gente piensa en Terminator intentando acabar con John Connor, y eso no es lo que es una IA». De hecho una IA maligna ni siquiera necesita un cuerpo como tampoco lo necesita un antivirus que la combata.

Una nueva carrera armamentística (civil)

inteligencia artificial como arma

Si hace cincuenta años algún programador hubiese anticipado los virus, el malware, el ciberespionaje, etc, hubiese cundido el pánico en la prensa, como hoy día lo hacen temas relacionados con una inteligencia artificial utilizada para el mal.

Sin embargo, convivimos en un entorno en el que recibimos ataques automatizados a diario y no nos alarmamos demasiado por ello. Contratamos un antivirus bueno, nos formamos en el uso de las herramientas digitales, y vivimos tranquilos en una constante escalada tecnológica.

Algunos divulgadores, como Michio Kaku, han comparado esta escalada con la carrera armamentística de la guerra fría ruso estadounidense del siglo pasado, o con la propia evolución darwiniana de las especies, con la diferencia de que ahora las soluciones de defensa provienen de un sector de servicios altamente privatizado.

Por ejemplo, con el uso creciente de cuentas y contraseñas de las décadas pasadas, y los ataques cibernéticos de fuerza bruta, fueron necesarias las contramedidas de tipo CAPTCHA. Los ataques a nuestras cuentas han seguido dándose, por lo que ahora el plan es pasar de las contraseñas y basar en huellas biométricas la entrada a nuestros servicios. Por supuesto, en algún lugar del mundo se estará intentando hackear este tipo de identificación, probablemente desarrollando algoritmos complejos e incluso IA.

Dentro de unos años será tan normal ser agredido por una inteligencia artificial en Internet como hace diez años era normal recibir spam (antes de los filtros antispam) o en el presente recibir correos fraudulentos o ataques a nuestros dispositivos. No deja de ser una tecnología, a usar tanto bien como mal.

Pero a medida que los algoritmos se abren paso en nuestra sociedad, y especialmente ahora que se puede adquirir una red neuronal, la presión que sentimos al leer sobre estos ataques disminuye porque aumenta nuestro conocimiento sobre ellas, y nuestra manera de defendernos.

Imágenes | iStock/dr_evil, iStock/cybrain, iStock/Zapp2Photo

Fuente