La apertura de Internet enfrenta la historia de la colaboración con un futuro competitivo

Print Friendly, PDF & Email

por Lorenzo De Carli

El debate sobre cuán abierta debería ser Internet a la libre expresión -y cuánto deberían poder las empresas restringir o cobrar por las velocidades de comunicación- se reduce a un conflicto entre los comienzos colaborativos de Internet y su forma comercializada actual.

Internet se originó a finales de la década de 1960 en el proyecto ARPANET del Departamento de Defensa de Estados Unidos, cuyo objetivo era permitir a los investigadores del gobierno de todo el país comunicarse y coordinarse entre sí. Cuando se permitió el acceso en línea al público en general a principios de la década de 1990, los intelectuales vieron una oportunidad para incluir a toda la humanidad en la comunidad de colaboración en línea que se había desarrollado. Como escribió el pionero de los derechos de Internet, John Barlow: “Estamos creando un mundo en el que todos puedan entrar sin privilegios ni prejuicios acordados por raza, poder económico, fuerza militar o lugar de nacimiento. Estamos creando un mundo donde cualquiera, en cualquier lugar, puede expresar sus creencias”.

Incluso hoy en día, muchas de las personas que contribuyen a la evolución técnica de la red siguen viendo Internet como un lugar para compartir el conocimiento humano para la superación personal y el mejoramiento de la sociedad. Como resultado, muchas personas se preocupan cuando las compañías de Internet tratan de cobrar más dinero para tener un acceso más rápido a productos digitales como la transmisión de videos.

Como investigador en redes informáticas y seguridad, observo que los problemas no son sólo filosóficos: Internet se basa en tecnologías que complican la tarea de comercializar el mundo en línea.

La ‘verdadera’ Internet

En la práctica, los diseñadores de la tecnología en la fundación de Internet no estaban realmente tratando de imponer ninguna filosofía en particular. Uno de ellos, David Clark, escribió en un artículo de 1988 que los primeros arquitectos de Internet consideraron características comerciales, como la contabilidad. Poder hacer un seguimiento de la cantidad de datos – y qué datos – que cada usuario está enviando es muy útil, si se va a cobrar a esos usuarios por la conectividad. Sin embargo, la mayoría de esas características comerciales no se incluyeron porque no eran necesarias para una red gubernamental y militar.

Estas decisiones de hace décadas hacen eco a través de los años: No existe una manera efectiva y universal de distinguir entre los diferentes tipos de tráfico de Internet, por ejemplo, para dar alguna prioridad o cobrar extra por otros. Si quien produce el tráfico trata activamente de eludir las restricciones, la separación del contenido se hace aún más difícil.

Usando herramientas viejas de nuevas maneras

Una de las pocas fuentes de información sobre cómo las compañías de Internet manejan este desafío proviene de investigaciones recientes en Northeastern University. Sugiere que pueden estar utilizando una técnica llamada “inspección profunda de paquetes” para identificar, por ejemplo, el tráfico de vídeo de un servicio de streaming en particular. Entonces las compañías de Internet pueden decidir a qué velocidad entregar ese tráfico, si lo estrangularán o le darán prioridad.

Pero la inspección profunda de paquetes no se desarrolló para este tipo de discriminación comercial. De hecho, fue desarrollado en la comunidad de seguridad de Internet como una forma de identificar y bloquear las comunicaciones maliciosas. Su objetivo es hacer que Internet sea más seguro, no simplificar la facturación. Así que no es una herramienta de contabilidad particularmente buena.

Como muchos otros investigadores que trabajan en la inspección profunda de paquetes, aprendí que sus algoritmos pueden no identificar correctamente los diferentes tipos de tráfico – y que puede ser engañado por un remitente de datos dedicado a evitar la detección. En el contexto de la seguridad en Internet, estas limitaciones son aceptables, porque es imposible prevenir todos los ataques, por lo que el objetivo principal es hacerlos más difíciles.

Pero la inspección profunda de paquetes no es lo suficientemente fiable como para que los proveedores de servicios de Internet la utilicen para discriminar entre tipos de tráfico. Las imprecisiones pueden hacer que reduzcan el tráfico que no tenían intención de reducir, o que no reduzcan la velocidad de los datos que querían reducir.

Romper el ciclo

El equipo de Northeastern encontró que T-Mobile parece estrangular los videos de YouTube, pero no los de Vimeo, probablemente porque la compañía no sabe cómo identificar el tráfico de Vimeo. Como señalaron los investigadores, esto podría llevar a sitios como YouTube a disfrazar su tráfico para que tampoco sea identificado. El peligro viene si eso empuja a las compañías de Internet a aumentar sus esfuerzos de inspección profunda de paquetes. El juego del gato y el ratón resultante podría afectar al tráfico de otras fuentes.

A medida que las empresas de Internet experimentan con lo que pueden lograr dentro de sus limitaciones técnicas, es probable que este tipo de problemas se vuelvan más comunes, al menos a corto plazo. A largo plazo, por supuesto, su influencia podría forzar cambios en los fundamentos técnicos de Internet. Pero, desde mi punto de vista, la arquitectura actual de Internet significa estrangulamiento y la discriminación en el tráfico será al menos tan difícil -si no más- como lo es hoy en día.

 

Please follow and like us:
This entry was posted in Artículos, Sociedad, Tecnología. Bookmark the permalink.

Comments are closed.