Artículos

Asistentes de voz, espionaje y la navaja de Occam

Echo-eavesdropping-768x703

Una pareja de Portland afirma con gran escándalo a una televisión local que su dispositivo Amazon Echo grabó una conversación privada entre ellos y envió la grabación a un contacto, que inmediatamente les alertó de la circunstancia, y pretende haber descubierto la supuesta evidencia de que este tipo de dispositivos nos espían y graban nuestras conversaciones de manera habitual.

Las explicaciones de Amazon al respecto son perfectamente razonables, y comprobables por prácticamente cualquiera que lleve un cierto tiempo utilizando dispositivos activados mediante la voz: una palabra en una conversación de fondo que sonaba parecida a “Alexa” provocó la activación de Echo, que escuchó la siguiente conversación como una solicitud de “enviar mensaje”. En ese momento, Alexa dijo en voz alta “¿A quién?”, y por la razón que sea, la conversación de fondo se interpretó como un nombre en la lista de contactos de los clientes. Alexa preguntó en voz alta: “[nombre de contacto], ¿no?”, e interpretó la conversación de fondo como “correcto”.

Una cadena de eventos altamente improbable, pero que obviamente, puede suceder, y que resulta aún más creíble cuando el resultado es tan absurdo como el que ha sido. No, el error en la tecnología no prueba que el dispositivo nos espíe… prueba únicamente que la tecnología, como todas, puede tener errores. La compañía tendrá ahora que trabajar en formas de convertir esta posibilidad en aún menos frecuente, pero eso es todo, y montar con ello una teoría de la conspiración resulta, como mínimo, entre arriesgado y extravagante. Como bien decía Guillermo de Occam, la explicación más sencilla suele ser la más probable: pensar en un error o cadena de errores en la interpretación de un comando de voz es mucho más sencillo y razonable que imaginarse una conspiración mundial y una estrategia basada en espiar a millones de ciudadanos de medio mundo, para supuestamente procesar todo lo que dicen, y utilizarlo para vaya usted a sabe qué, imaginando además que nadie va a descubrirlo jamás y no tendrá nunca ningún tipo de consecuencias.

Hablamos de una tecnología relativamente nueva: asistentes que reaccionan a una palabra determinada, o wake-up-word: “Alexa” en el caso de Amazon, “Oye Siri” en el de Apple, “OK Google” en el de Google, “Hey Cortana” en el de Microsoft… Pensar que esta tecnología va a funcionar a la perfección, considerando lo impredecible e impreciso que es el lenguaje humano, es completamente absurdo: ¿cuántas veces tenemos que pedir a nuestro interlocutor en una conversación normal que nos repita lo que ha dicho? Todos, a estas alturas, tenemos anécdotas en las que nuestro asistente de voz se ha despertado sin motivo aparente: a mí me ha pasado ya en público, estando en el escenario en un par de conferencias, que de repente, mi reloj o mi smartphone se pongan a hablar porque han interpretado que he dicho “oye Siri”… últimamente, hasta juego con ello en algunas presentaciones, y eso que hablamos, seguramente, del más torpe y limitado de todos los asistentes de voz disponibles en este momento. Ayer, durante una reunión en mi despacho, Siri se despertó e interpretó como una orden de búsqueda lo último que la otra persona, no yo, había dicho, imagino que porque algo que dije yo la despertó, pero lo siguiente que escuchó fue pronunciado por la otra persona (en efecto, si despiertas a tu Siri, otra persona puede proceder a darle órdenes o hacerle preguntas, aunque no sea tu voz). De nuevo: una tecnología en sus fases iniciales, con sus fallos ocasionales, que dada además la naturaleza de esa tecnología, nunca podrán ser totalmente evitados. La tecnología puede avanzar mucho… pero no hace milagros.

Toda nueva tecnología conlleva problemas, errores, limitaciones y oportunidades para malintencionados. Recientemente se ha descubierto la posibilidad de hackear asistentes de voz mediante comandos enviados en frecuencias inaudibles para el oído humano, pero que son captadas por los potentes micrófonos de los asistentes y pueden ser utilizadas para ejecutar comandos. ¿Invalida esto su propuesta de valor? Obviamente no, lo que hace es obligar a sus desarrolladores a crear protecciones para ese tipo de ataques, posiblemente limitando la validez de los rangos de frecuencias utilizados o mediante el recurso a algún otro tipo de mecanismo. De nuevo: una nueva tecnología siempre está expuesta a problemas de este tipo, probarla conlleva algunos riesgos, y hay cosas que no son evidentes hasta que alguien prueba que son posibles. ¿Es esto un problema preocupante? Podría llegar a serlo. A partir del anuncio de su descubrimiento, los proveedores se dividirán en buenos, malos o regulares en función de la idoneidad y velocidad de su respuesta al problema. Esto es todo.

Quien quiera pensar que este tipo de asistentes son la excusa para que una serie de empresas tecnológicas escuchen todas nuestras conversaciones, las procesen y sepan todo sobre nosotros, ya sabe lo que tiene que hacer: evitar ese tipo de dispositivos, renunciar a sus posibles ventajas, y con el tiempo, posiblemente irse a vivir a una cabaña aislada en lo alto de una montaña, preferentemente evitando la tentación de enviar artefactos explosivos a otros seres humanos. Utilizar esta tecnología no es obligatorio para nadie, y quien lo hace, lo hará por una combinación de curiosidad y propuesta de valor: porque la idea de poder pedir a un asistente de voz que te ponga música, te encienda o apague las luces, te pida un transporte, te compre algo, te diga la predicción del tiempo, te cuente las noticias o mil posibilidades más es algo que le parece atractivo. No imprescindible, sin duda, que son muchos años viviendo sin ello, sino simplemente atractivo. A partir de ahí, están los sentimientos de cada uno, la relación de confianza o desconfianza que tenga con las empresas que fabrican estos dispositivos, la capacidad que tenga para entender la tecnología que tienen detrás o para imaginarse cuestiones más relacionadas con la magia, o la propuesta de valor que sus posibilidades representen lo que haga que una persona se decida o no a utilizar esa tecnología en su smartphone, en su smartwatch o en el salón de su casa. Pero si quieres ser interpretado como mínimamente serio en estas cuestiones, evita la conspiranoia injustificada y piensa más bien en la navaja de Occam.