Parece como el otro día que Reddit finalmente prohibió un puñado de su subreddits más odioso y deplorable , incluyendo r / coontown y r / fatpeoplehate. El movimiento era, en ese momento, ridiculizado por algunos como inútil, similar a espantar a criminales lejos de un barrio sólo para molestar a otro. Pero un nuevo estudio muestra que, por lo menos para Reddit, ha tenido efectos positivos duraderos.
La policiacin del discurso de odio en lnea se ha convertido en un punto de inflamacin para muchos de una guerra de llamas, especialmente en los pasados meses, como los nacionalistas blancos, los neonazis y otros con puntos de vista abominables pero estrictamente jurdicos que luchan con ser prohibidos repetidamente desde las plataformas ms grandes de Internet .
La práctica ha llevado a sitios como StormFront a buscar refugio en puertos lúgubres como anfitriones fuera de marca y pequeñas redes sociales que lanzan su tolerancia de ciertos tipos de libertad de expresión que son “censurados” por otros. Es un ejemplo de una de las objeciones a la idea de prohibir usuarios o comunidades problemáticas: simplemente irán a otro lugar, así que ¿por qué molestarse?
Los investigadores del Instituto de Tecnología de Georgia tomaron esta pregunta en serio, ya que hasta que alguien realmente investiga si tales prohibiciones son útiles, dañinas o alguna mezcla de ellas, todo es especulación. Así que tomaron un importante corpus de datos de Reddit ( compilado por PushShift.io ) y examinaron exactamente qué pasó con el discurso de odio y sus proveedores , con los dos subreddits mencionados como estudios de caso.
Esencialmente, miraban a los miles de usuarios que formaban CT y FPH (como ellos los llamaban) y cuantificaban su uso del discurso de odio. Luego compararon estos datos previos a la prohibición con los mismos usuarios después de la prohibición: cuánto discurso de odio produjeron, donde “migraron” (es decir, subreddits duplicados, relacionados, etc.) y si “invadieron” subreddits experimentaron picos de odio como resultado. Los grupos de control se crearon observando la actividad de subreddits similares que no fueron prohibidos.
Lo que encontraron fue alentador para esta estrategia de reducir la actividad no deseada en un sitio como Reddit:
Con todo, concluyen los investigadores, la prohibición fue bastante efectiva en lo que se propuso hacer:
Para la definición de “trabajo” enmarcada por nuestras preguntas de investigación, la prohibición funcionó para Reddit. Tuvo éxito tanto a nivel de usuario como a nivel comunitario. A través de la prohibición de subreddits que participan en el racismo y fat-shaming, Reddit fue capaz de reducir la prevalencia de tal comportamiento en el sitio.
Por supuesto, no es tan simple como todo eso. Naturalmente, muchos de los usuarios que antes lanzaron insultos raciales en CT se mudaron a Gab o Voat, donde su comportamiento se alienta con orgullo. Pero el punto de las prohibiciones en Reddit no era eliminar el racismo; era desalentarlo en la plataforma. Con ese fin, logró su objetivo (he preguntado a Reddit qué piensa del estudio y sus conclusiones). Y estrategias similares pueden funcionar para otras plataformas.
La cuestión de cómo combatir el racismo y el odio en general es uno que es realmente demasiado para una plataforma importante como Reddit o incluso Google o Facebook . Lo mejor que pueden esperar es atacarlo cuando y donde aparece. Pero tan ineficaz como podría parecer, funcionó para Reddit y puede funcionar en otra parte: el fanatismo es fácil y los que lo aprecian son perezosos. Que sea difícil y muchas personas pueden encontrar más problemas de lo que vale la pena acosar, la vergüenza, y de otro modo abuso en línea los diferentes de sí mismos.