Artículos

El discurso del odio y su presencia en la red

Print Friendly, PDF & Email



Una vez más, surge la discusión sobre la exclusión de páginas que promueven el discurso del odio en la red: si en 2017 fue la página neonazi Daily Stormer, ahora es 8chan, un tablón de imágenes creado por Fredrick Brennan en octubre de 2013 y concebido como «un 4chan
más tolerante con la libertad de expresión», y que se había convertido
en protagonista por su papel central en la radicalización y publicación
de información sobre varios de los últimos tiroteos ocurridos en los
Estados Unidos y en otros países. Tras desvincularse de la página en diciembre de 2018 tras la masacre de Christchurch y la publicación inmediata por su autor de los vídeos de la misma en los foros de la página, el propio Brennan afirmaba que debía ser cerrada y que ese tipo de foros solo generaban dolor y sufrimiento.

Tras comprobar que el autor de la masacre de El Paso había anunciado sus intenciones en ese foro un rato antes de cometerla, 8chan está ahora inaccesible, como resultado de la decisión de Cloudflare,
proveedor de servicios de DNS, de protección y de distribución de
contenidos fundamental en la red sobre todo para sitios polémicos, de
suspender sus servicios a la página. La página estaba ya desde hace
tiempo excluida del índice de Google por publicar pornografía infantil, y aunque mantiene su dominio porque su registrador, Tucows,
sostiene que no lo retirará mientras no reciba una petición judicial,
todo indica que se expone a su práctica desaparición de la red.

La
pregunta es la misma que en 2017: ¿se debe excluir a este tipo de
páginas de internet? Las consideraciones son múltiples: la primera, de
índole práctica: ¿sirve para algo? La experiencia de Daily Stormer
muestra que no: la página continúa activa bajo un dominio diferente, y
además, ahora utiliza el subtítulo «The Most Censored Publication in History»,
«la publicación más censurada de la historia», que presuntamente
incluso incrementa su atractivo para sus descerebrados usuarios. La
página ya no es un problema para Cloudflare, pero sigue existiendo, y su
existencia sigue siendo un problema para internet y para todos.
Internet es muy grande, y cuenta con muchos recovecos y lugares en los
que refugiarse, desde proveedores de dominio de todo tipo hasta incluso
la dark web.
Ante un interés determinado de una serie de personas por reunirse en
una página y hablar de un tema determinado, los recursos son práctica
ente ilimitados, y la persecución, además, tiende a estimula la
marginalización y radicalización de los participantes.

Otra cosa,
obviamente, es que no haya que hacer nada y que debamos permitir que
cualquiera hable de lo que quiera, incluyendo la planificación de
crímenes. Como el CEO de Cloudflare comentaba ayer, tras revertir su
decisión inicial de mantener sus servicios a la página por una cuestión
de libertad de expresión, «la página podrá volver, pero ya será problema de otro«. Y es que, como comenta Andrew Torba, CEO de Gab,
otra página neonazi y supremacista con más de un millón de
participantes, «el problema no es 8chan, sino los jóvenes americanos», y
«si 8chan desaparece, alguien más activará un nuevo tablero de
imágenes, digamos 20chan o lo que sea, y la gente acudirá en masa allí».

En su explicación en el blog corporativo, Matthew Prince, CEO de Cloudflare, afirma que aunque «8chan ha demostrado en repetidas ocasiones ser un pozo negro de odio,
ha demostrado estar fuera de la ley, y esa ilegalidad ha causado
múltiples muertes trágicas», la suspensión de sus servicios a la página «… no es el final, y necesitamos tener una conversación más amplia sobre cómo abordar las causas profundas del odio en la red«.

El
problema no es la web, son las personas. Servicios como Google,
Cloudflare o proveedores de dominios pueden interrumpir su relación con
una página si creen es adecuado hacerlo o que ello perjudica su imagen, y
el hecho de que eliminar algo de internet esté prácticamente en su mano
no deja de ser preocupante
si esas eliminaciones comienzan a tener lugar por una cuestión
arbitraria en lugar de serlo porque lo diga la autoridad judicial
pertinente. Eliminar las páginas en las que las personas de determinada
ideología se reúnen es peligroso, porque lejos de eliminar la actividad
como tal, se limitan a esconderla y a someterla a un proceso de
radicalización mayor. Aunque nos repugne ver determinadas cosas, es
importante entender que el canal no es responsable, los responsables son
las personas, y las personas no desaparecen porque el canal deje de
estar al alcance de un clic. Por otro lado, permitir que ese tipo de
actividad tenga repercusión y visibilidad pública no deja de ser una
manera de ofrecerle una caja de resonancia, de posibilitar que su
discurso esté presente en la vida pública, y que pueda convertirse en un
mensaje potencialmente atractivo para más gente.

La discusión, como puede verse, es compleja, y requiere tratar las causas del problema, no únicamente sus síntomas. Las masacres y los delitos de odio no son un problema de internet, ni algo que internet provoque por sí mismo. Lo que realmente lo provoca es permitir y alentar un clima de opinión determinado y generar seguidores que sienten que pueden contribuir a esa causa y que se sienten respaldados nada menos que por personajes públicos. Ese es el problema, y no las páginas en la red. En la red podemos – y posiblemente debemos – adoptar una política de tolerancia cero, pero mientras sigamos persiguiendo fantasmas y permitiendo que se sientan superiores cada vez que logran que su actividad reaparezca bajo un nuevo dominio, una nueva página o un nuevo servicio, seguiremos tratando el problema de manera equivocada, y no acudiendo a su verdadera raíz. Según la paradoja de la tolerancia, no debemos tolerar al intolerante. Pero ¿qué pasa cuando el intolerante y el que crea y fomenta el discurso del odio está al mando de todo un país?

Via