Filtrar Internet: ¿una nueva función del estado?

Print Friendly, PDF & Email

Carlos Castillo

En julio de este año el Primer Ministro británico, James Cameron, anunció que los proveedores de Internet debían filtrar la pornografía para sus clientes residenciales. La razón para hacerlo: “el impacto que está teniendo en la inocencia de nuestros niños, como la pornografía en línea está corrompiendo la niñez.”

Los grandes proveedores de Internet en el Reino Unido: Sky, BT y Virgin y TalkTalk, están implementando estos sistemas de acuerdo a los lineamientos del gobierno. El principal es que cada cliente residencial debe recibir un aviso y tomar una decisión entre una conexión filtrada y una conexión sin filtrar.

Hasta el momento no hay estadísticas sobre cuánta gente elige una opción u otra, un asunto delicado porque no está claro quiénes tienen acceso a saber qué ha decidido cada cliente. Lo que sí ha ocurrido es la realización súbita de que filtrar Internet no funciona en la práctica.

Newsnight, un programa de la BBC, realizó algunas pruebas, obteniendo los resultados esperables. De una lista de 68 sitios pornográficos, un proveedor bloqueó 62 y otro 67, pero este último también bloqueó 8 sitios que ayudan a gente que quiere luchar contra la adicción a la pornografía. Además:

Uno de los proveedores además bloqueó completamente el sitio de hosting de imágenes Imgur porque usa la misma red de distribución de contenido (CDN) que un sitio pornográfico.

En suma, considerando el tamaño de Internet y la cantidad de sitios nuevos que aparecen todos los días, no es de extrañarse que las medidas tecnológicas puedan hacer poco o nada para proteger “la inocencia de nuestros niños”. Pero más importante aún, cuando Cameron se refiere a “nuestros niños”, ¿a quiénes se refiere? ¿Quiénes son realmente “los niños” para un gobierno que decide que bloquear Internet es parte de sus funciones?

Que cada proveedor tenga su propio filtro no funciona

Filtrar Internet es algo muy delicado por varias razones:

Primero, está el problema de la transparencia. Los usuarios deben entender cuáles son las categorías que son bloqueadas, y en qué categoría se encuentra cada sitio bloqueado. Esto requiere un mensaje transparente en vez del “Connection Reset” que ocurre en china.

Segundo, está el problema de definir criterios y estándares. ¿Cómo se define qué es pornografía? ¿Qué pasa en los casos límite, por ejemplo un fotógrafo que incluye en su galería fotos de desnudos? ¿Cómo evolucionan estos criterios en el tiempo?

Tercero, está el problema de los procedimientos. Por ejemplo, los procedimientos a seguir si un sitio es bloqueado injustamente. ¿Cómo puedo saber que un proveedor de Internet (o varios) está(n) bloqueando mi sitio web? ¿Cómo puedo lograr que examinen mi sitio? ¿Cuánto tiempo pueden demorarse en hacerlo?

Cuarto, está el problema de las responsabilidades. Supongamos que legalmente se establecen criterios y procedimientos. Un proveedor de Internet tiene 2% de falsos positivos y 1% de falsos negativos, ¿es éso aceptable o no? Y si no lo es, ¿cuáles son las sanciones o los mecanismos para corregir estos problemas?

El siguiente paso

El Open Rights Group, una organización por los derechos ciudadanos en la era digital, que se opone terminantemente a este tipo de filtrado, tiene un listado de sugerencias para lidiar con estos problemas.

Pero todas las sugerencias, lamentablemente, apuntan a un problema central: el hecho de que el bloqueo es descentralizado. No puede haber adecuado control de procedimientos y responsabilidades si el bloqueo es descentralizado. No se puede esperar que, por ejemplo, un sitio de educación sexual como los mencionados más arriba vaya uno por uno, a cada proveedor de Internet, a pedir que les desbloqueen.

La única “solución” es una lista negra para todo el país. Un listado elaborado por un comité dependiente del gobierno que incluya los sitios web que están prohibidos. Una lista negra elaborada usando un criterio uniforme y con un procedimiento estándar para entrar y salir de la lista.

¿Qué tipo de cosas quieren bloquear en realidad los gobiernos? No necesitamos especular sobre este tema, tenemos datos. El reciente informe de transparencia de Google, en su apartado sobre solicitudes de los gobiernos, tiene la respuesta:

Los gobiernos continúan pidiéndonos que eliminemos contenido político. Hay jueces que nos han pedido que borremos información que les critica, departamentos de policía que quieren que eliminemos vídeos o blogs que describen su conducta, e instituciones locales como concejos municipales que no quieren que la gente encuentre información sobre sus procesos de toma de decisión.

Estos oficiales normalmente citan leyes de difamación, privacidad, o incluso copyright en sus intentos para eliminar expresiones políticas de nuestros servicios. En este período [~6 meses] recibimos 93 requerimientos para eliminar contenido crítico de un gobierno y quitamos contenidos en menos de un tercio de los casos. Cuatro de los requerimientos fueron enviados como solicitudes basadas en material protegido por copyright.

Un gobierno que convence a la población de Internet debe ser filtrada (por el terrorismo, la pornografía, la pedofilia, el ciber-abuso, el ciber-acoso, la seguridad del estado, etc.), puede comenzar con un filtro descentralizado. Una vez que eso ha sido establecido, el siguiente paso es denunciar que los filtros funcionan mal y proponer mejores filtros, en que “mejores” significa administrados centralmente. Así, los gobiernos construyen, por los motivos que sea, las herramientas que sustentarán las dictaduras del futuro.

Fuentes: BBCTechdirtGoogleOpen Rights Group.

This entry was posted in Artículos, DD.HH.. Bookmark the permalink.

Comments are closed.