Observenos el caso de USA.
Los resultados de las elecciones presidenciales de Estados Unidos han sido tan preocupantess como la campaña. Cientos de incidentes motivados por el odio fueron reportados después de la victoria de Donald Trump, atestigua el Southern Poverty Law Center. Y la policía dice que algunas protestas anti-Trump que se convirtieron en disturbios.
Los crímenes de odio son documentados por el FBI, como lo fueron durante el año pasado. Pero es más difícil medir la proliferación del discurso odioso, que está protegido por la Constitución de los Estados Unidos, y se deja en gran parte sin control, especialmente en línea. Eso pone a las empresas privadas de redes sociales en un lugar díficil, dejandolas decidir entre el derecho sin restricciones a la libertad de expresión, por feo que sea, y el proteger a sus usuarios del abuso y la amenaza mediante la regulación de lo que pueden decir. Y , al final, nos deja el decidir cómo queremos utilizar plataformas que frenen esta libertad.
“El discurso de odio no puede ser un crimen porque está protegido por la Primera Enmienda”, dice Wayne Giampietro, un abogado de la Primera Enmienda en Chicago. “Pero la Primera Enmienda no se aplica a las personas que manejan la Internet”.
Mientras que el discurso de odio público no puede –y no debería, creo yo– ser suprimido, plataformas sociales como Twitter, Facebook y Reddit se les permite establecer sus propias restricciones para moderar la comunidad que quieren fomentar en sus plataformas. El uso de insultos raciales o lenguaje sexista está protegido en la vida pública, pero las empresas privadas pueden decidir qué tipo de diálogo van a llevar.
Las nuevas pautas de Twitter demuestran la reacción más reciente de la compañía a informes constantes de abuso y acoso cibernético. La plataforma permite a los usuarios reportar conversaciones odiosas, bloquear insultos raciales y optar por no ver conversaciones enteras en un intento de distanciar a los abusadores de sus víctimas. Piense en ello como un mecanismo para controlar quién entra en su casa, frente a la inevitabilidad de encontrar a extraños en la calle, lo que es importante para aquellos de nosotros que hemos tratado con abuso en línea en múltiples ocasiones.
“Se están volviendo más receptivos”, dice Sameer Hinduja, experto en ciberbullying y profesor de criminología en la Florida Atlantic University, quien ha trabajado informalmente con empresas como Twitter y Facebook. “Es útil contar con la ayuda de la comunidad”.
En las últimas semanas, Twitter ha hecho algunos de sus movimientos más audaces hasta la fecha. Suspendió o prohibió a varios miembros del denominado movimiento “alt-right”, incluyendo al prominente vocero Richard Spencer, según informó VICE. Eso significa que aquellos que se adhieren a la ideología “alt-right” pueden continuar organizándose en torno al “futuro de las personas de ascendencia europea” en el país, pero ya no tendrán una de las plataformas más grandes del mundo para hacerlo.
Facebook, por su parte, ha quedado atrapado en un torbellino de atención durante las elecciones por su arbitraria vigilancia del discurso. Por un lado, cambió su estrategia después de que los usuarios descubrieran que podría estar suprimiendo noticias de tendencia conservadora después de que funcionarios de la organización lo revelaron. Pero Facebook también ha sido criticado por sobrecompensar sus errores y permitir que noticias falsas poblen las fuentes de los usuarios, y dijo que dejará de permitir que los anuncios ayuden a financiar sitios sin informes basados en hechos.
-Tienen que caminar por una línea estrecha” – dice Giampietro. “¿Hasta qué punto vamos a suprimir ciertas ideas? Y hasta qué punto detendrás algo que difama a alguien [a través de noticias falsas] “.
Otras plataformas como Reddit son menos propensas a intervenir, independientemente del vitriolo de sus usuarios, como señaló la desarrolladora de juegos Brianna Wu. Esto podría explicar por qué los grupos nacionalistas blancos han optado por comunicarse principalmente a través de estos foros. Sin embargo, incluso Reddit, que durante mucho tiempo había sido el modelo de una plataforma social de libre expresión, ha introducido directrices y restricciones para sus usuarios, incluido el lenguaje que amenaza, hostiga o intimida a otros usuarios.
Si bien esto suena como un debate que vive en Internet, hay un montón de impacto en el mundo real.
Estados Unidos, a diferencia de su vecino Canadá, protege todo discurso, incluyendo el discurso de odio, siempre y cuando no incite a la violencia. Pero esa línea es cada vez más borrosa ya que las comunidades ahora crecen y se organizan en línea. Los hilos de Reddit repletos de comentarios antisemitas, anti-LGBT o anti-negro, por ejemplo, son los mismos que exigen demostraciones y acciones reales.
“No podemos decir que está bien porque no incita a la violencia. Nos centramos en los jóvenes por esa razón, pueden traumatizarse”, dijo Hinduja. En el extremo, dijo, esto puede conducir al suicidio y la violencia, o a lo menos impacta la sana discusión.
Dijo que habrá más medidas puestas en su lugar, ya sea a través de aprendizaje automátizado u otros filtros. Y si las plataformas sociales no abordan el abuso, lentamente caerán fuera del radar, dijo Hinduja, al igual que JuicyCampus, una vez popular sitio que enfrentó a estudiantes universitarios unos contra otros en un torbellino de chismes y llamadas de juicio anónimas.
Pero restringir el discurso en línea, incluso para proteger de los abusos, también podría hacer que las empresas pierdan usuarios. O podría conducirlos a plataformas como silo -algunos miembros del “alt-right” ahora están pidiendo a la gente a unirse a las plataformas sin restricciones como Gab.ai en lugar de Twitter, por lo que nadie se interpone en el camino de sus conversaciones. Y las regulaciones de Reddit han llevado a la misma multitud a foros como Stormfront, que pretende apoyar a estos “realistas raciales”.
Giampietro dijo que la única manera real de combatir este tipo de discurso de odio es ahogarlo en retórica razonable. “Nunca podremos – y no deberíamos – impedir que alguien hable”, dijo. “El antídoto para el discurso del odio es más del tipo correcto de discurso. Y denunciando a esas personas, y demostrando al mundo que idiotas son para pensar de esa manera “.
Esto podría sonar idealista, pero no es imposible. En noviembre, por ejemplo, Beverly Whaling, un alcalde de Virginia Occidental, elogió un tweet que llamó a la primera dama Michelle Obama “un mono en tacos” en Twitter, ganando su reacción intensa en medios sociales y de noticias. Apenas un par de días después, el alcalde renunció bajo presión diciendo que lamentaba el “daño que pudo haber causado”.
En ese caso, fue una combinación de la comunidad en línea de Twitter, la atención de los medios de comunicación y el intercambio entre plataformas que presionaron al alcalde para que dimitiera, consolidando la conexión entre el discurso de odio en línea y fuera de línea.
Es importante señalar que el discurso de odio en línea, y el crimen de odio, no comenzó con Donald Trump y sus partidarios-ni terminará con su presidencia. Luchar por los derechos civiles es un proceso continuo, y cualquier elección que haga Twitter y Facebook no necesariamente significa que la gente no llevará a cabo las mismas conversaciones de odio, o los antídotos para ellos, en la vida real.
Pero los estadounidenses todavía son en gran medida inconscientes de los algoritmos y los parámetros que están estableciendo como se comparten todas las opiniones políticas y sociales que tienen en las plataformas de medios sociales. Y esta elección nos ha dado la oportunidad de averiguar cómo podemos llegar a ser un público más informado, sin las limitaciones de la censura y el abuso.
Observenos el caso de USA.
Los resultados de las elecciones presidenciales de Estados Unidos han sido tan preocupantess como la campaña. Cientos de incidentes motivados por el odio fueron reportados después de la victoria de Donald Trump, atestigua el Southern Poverty Law Center. Y la policía dice que algunas protestas anti-Trump que se convirtieron en disturbios.
Los crímenes de odio son documentados por el FBI, como lo fueron durante el año pasado. Pero es más difícil medir la proliferación del discurso odioso, que está protegido por la Constitución de los Estados Unidos, y se deja en gran parte sin control, especialmente en línea. Eso pone a las empresas privadas de redes sociales en un lugar díficil, dejandolas decidir entre el derecho sin restricciones a la libertad de expresión, por feo que sea, y el proteger a sus usuarios del abuso y la amenaza mediante la regulación de lo que pueden decir. Y , al final, nos deja el decidir cómo queremos utilizar plataformas que frenen esta libertad.
“El discurso de odio no puede ser un crimen porque está protegido por la Primera Enmienda”, dice Wayne Giampietro, un abogado de la Primera Enmienda en Chicago. “Pero la Primera Enmienda no se aplica a las personas que manejan la Internet”.
Mientras que el discurso de odio público no puede –y no debería, creo yo– ser suprimido, plataformas sociales como Twitter, Facebook y Reddit se les permite establecer sus propias restricciones para moderar la comunidad que quieren fomentar en sus plataformas. El uso de insultos raciales o lenguaje sexista está protegido en la vida pública, pero las empresas privadas pueden decidir qué tipo de diálogo van a llevar.
Las nuevas pautas de Twitter demuestran la reacción más reciente de la compañía a informes constantes de abuso y acoso cibernético. La plataforma permite a los usuarios reportar conversaciones odiosas, bloquear insultos raciales y optar por no ver conversaciones enteras en un intento de distanciar a los abusadores de sus víctimas. Piense en ello como un mecanismo para controlar quién entra en su casa, frente a la inevitabilidad de encontrar a extraños en la calle, lo que es importante para aquellos de nosotros que hemos tratado con abuso en línea en múltiples ocasiones.
“Se están volviendo más receptivos”, dice Sameer Hinduja, experto en ciberbullying y profesor de criminología en la Florida Atlantic University, quien ha trabajado informalmente con empresas como Twitter y Facebook. “Es útil contar con la ayuda de la comunidad”.
En las últimas semanas, Twitter ha hecho algunos de sus movimientos más audaces hasta la fecha. Suspendió o prohibió a varios miembros del denominado movimiento “alt-right”, incluyendo al prominente vocero Richard Spencer, según informó VICE. Eso significa que aquellos que se adhieren a la ideología “alt-right” pueden continuar organizándose en torno al “futuro de las personas de ascendencia europea” en el país, pero ya no tendrán una de las plataformas más grandes del mundo para hacerlo.
Facebook, por su parte, ha quedado atrapado en un torbellino de atención durante las elecciones por su arbitraria vigilancia del discurso. Por un lado, cambió su estrategia después de que los usuarios descubrieran que podría estar suprimiendo noticias de tendencia conservadora después de que funcionarios de la organización lo revelaron. Pero Facebook también ha sido criticado por sobrecompensar sus errores y permitir que noticias falsas poblen las fuentes de los usuarios, y dijo que dejará de permitir que los anuncios ayuden a financiar sitios sin informes basados en hechos.
-Tienen que caminar por una línea estrecha” – dice Giampietro. “¿Hasta qué punto vamos a suprimir ciertas ideas? Y hasta qué punto detendrás algo que difama a alguien [a través de noticias falsas] “.
Otras plataformas como Reddit son menos propensas a intervenir, independientemente del vitriolo de sus usuarios, como señaló la desarrolladora de juegos Brianna Wu. Esto podría explicar por qué los grupos nacionalistas blancos han optado por comunicarse principalmente a través de estos foros. Sin embargo, incluso Reddit, que durante mucho tiempo había sido el modelo de una plataforma social de libre expresión, ha introducido directrices y restricciones para sus usuarios, incluido el lenguaje que amenaza, hostiga o intimida a otros usuarios.
Si bien esto suena como un debate que vive en Internet, hay un montón de impacto en el mundo real.
Estados Unidos, a diferencia de su vecino Canadá, protege todo discurso, incluyendo el discurso de odio, siempre y cuando no incite a la violencia. Pero esa línea es cada vez más borrosa ya que las comunidades ahora crecen y se organizan en línea. Los hilos de Reddit repletos de comentarios antisemitas, anti-LGBT o anti-negro, por ejemplo, son los mismos que exigen demostraciones y acciones reales.
“No podemos decir que está bien porque no incita a la violencia. Nos centramos en los jóvenes por esa razón, pueden traumatizarse”, dijo Hinduja. En el extremo, dijo, esto puede conducir al suicidio y la violencia, o a lo menos impacta la sana discusión.
Dijo que habrá más medidas puestas en su lugar, ya sea a través de aprendizaje automátizado u otros filtros. Y si las plataformas sociales no abordan el abuso, lentamente caerán fuera del radar, dijo Hinduja, al igual que JuicyCampus, una vez popular sitio que enfrentó a estudiantes universitarios unos contra otros en un torbellino de chismes y llamadas de juicio anónimas.
Pero restringir el discurso en línea, incluso para proteger de los abusos, también podría hacer que las empresas pierdan usuarios. O podría conducirlos a plataformas como silo -algunos miembros del “alt-right” ahora están pidiendo a la gente a unirse a las plataformas sin restricciones como Gab.ai en lugar de Twitter, por lo que nadie se interpone en el camino de sus conversaciones. Y las regulaciones de Reddit han llevado a la misma multitud a foros como Stormfront, que pretende apoyar a estos “realistas raciales”.
Giampietro dijo que la única manera real de combatir este tipo de discurso de odio es ahogarlo en retórica razonable. “Nunca podremos – y no deberíamos – impedir que alguien hable”, dijo. “El antídoto para el discurso del odio es más del tipo correcto de discurso. Y denunciando a esas personas, y demostrando al mundo que idiotas son para pensar de esa manera “.
Esto podría sonar idealista, pero no es imposible. En noviembre, por ejemplo, Beverly Whaling, un alcalde de Virginia Occidental, elogió un tweet que llamó a la primera dama Michelle Obama “un mono en tacos” en Twitter, ganando su reacción intensa en medios sociales y de noticias. Apenas un par de días después, el alcalde renunció bajo presión diciendo que lamentaba el “daño que pudo haber causado”.
En ese caso, fue una combinación de la comunidad en línea de Twitter, la atención de los medios de comunicación y el intercambio entre plataformas que presionaron al alcalde para que dimitiera, consolidando la conexión entre el discurso de odio en línea y fuera de línea.
Es importante señalar que el discurso de odio en línea, y el crimen de odio, no comenzó con Donald Trump y sus partidarios-ni terminará con su presidencia. Luchar por los derechos civiles es un proceso continuo, y cualquier elección que haga Twitter y Facebook no necesariamente significa que la gente no llevará a cabo las mismas conversaciones de odio, o los antídotos para ellos, en la vida real.
Pero los estadounidenses todavía son en gran medida inconscientes de los algoritmos y los parámetros que están estableciendo como se comparten todas las opiniones políticas y sociales que tienen en las plataformas de medios sociales. Y esta elección nos ha dado la oportunidad de averiguar cómo podemos llegar a ser un público más informado, sin las limitaciones de la censura y el abuso.
Compartir esto: