Expulsar a "líderes tóxicos" limita la propagación del odio en las redes sociales, según Facebook

Investigadores observaron que al caer estos líderes influenciadores, los grupos redujeron el consumo y la producción de contenidos que incitan al odio.

Controlar los discursos de odio es uno de los grandes desafíos que enfrenta la humanidad en la era de la información. Ante la proliferación de estos discursos, las redes sociales se han vuelto lugares muy hostiles para algunas personas.

Varias organizaciones trabajan con gobiernos y empresas responsables de gestionar las redes para que limiten estos discursos. Ya quedó demostrado en varias oportunidades que estos discursos pueden alentar o exacerbar la violencia en algunos individuos.

Quizá el ejemplo mediático más reciente fue el ataque al capitolio por parte de fanáticos de Donald Trump.

No existe una definición universal de discurso de odio de acuerdo con el derecho internacional. Sin embargo, las Naciones Unidas asegura que el discurso de odio posee tres características esenciales.

Se puede materializar en cualquier forma de expresión, incluidas imágenes, ilustraciones, memes, objetos, gestos y símbolos y puede difundirse tanto en Internet como fuera de él.

Es discriminatorio (sesgado, fanático e intolerante) y/o peyorativo (basado en prejuicios, despectivo o humillante) de un individuo o grupo.

Se centra en "factores de identidad" reales o percibidos de un individuo o grupo, que incluyen: religión, etnia, nacionalidad, raza, color, ascendencia, género, origen económico o social, discapacidades, estado de salud u orientación sexual, entre otras muchas.

En este sentido, un estudio interno de Meta evidenció que expulsar a los líderes tóxicos de las redes sociales reduce la propagación del odio en internet.

Los discursos de odio están por todas partes, dentro y fuera de internet. Frenarlos y disminuirlos es una prioridad porque además de generar daño por sí mismos, también alientan a la diseminación de datos falsos y desinformación.

Cómo frenarlos y cómo disminuirlos son las grandes preguntas para las que todavía no existe una respuesta sistematizada. Sin embargo, un estudio interno realizado por Facebook con una muestra de 26.000 usuarios arrojó la primera evidencia de relación causa y efecto entre eliminar las cuentas de aquellos líderes que diseminan contenidos tóxicos y una disminución del odio en redes sociales.

Es decir que excluir a aquellos líderes que capitanean comunidades extremistas es una forma eficiente de desmantelar a largo plazo los discursos de odio en redes sociales.

El informe, divulgado en la revista científica Proceedings of the National Academy of Sciences, analizó los efectos producidos en la audiencia de seis comunidades virtuales, cuyos representantes más activos fueron expulsados de la plataforma.

De esta forma, los investigadores observaron que al caer estos líderes influenciadores, los grupos redujeron el consumo y la producción de contenidos que incitan al odio, y se relacionaron menos con otros miembros de la misma audiencia.

En concreto, luego de las exclusiones de los perfiles referentes, los usuarios pasaron a ver casi la mitad del contenido de odio que consumían diariamente.

Los autores apuntan que para evitar que los usuarios tóxicos migren a otras plataformas y rearmen allí sus redes de odio, es necesario acciones coordinadas que limiten su participación en todas las redes sociales masivas.

Desde el Instituto Reuters para el estudio del periodismo de la Universidad de Oxford explicaron a El País de España que "la moderación de contenidos en redes sociales debe hacerse buscando un equilibrio entre la libertad de expresión y la preservación de otros derechos que pueden verse dañados".

Ya lo dijo el Secretario General de las Naciones Unidas, António Guterres, en mayo de 2019: "Combatir el discurso de odio no significa limitar o prohibir la libertad de expresión. Se trata de impedir la escalada de dicha incitación al odio hacia algo más peligroso".


Las Más Vistas