En marzo pasado, redes sociales, como Facebook e Instagram anunciaron que deseaban impedir que las organizaciones de ultra derecha y sus líderes difundan odio en contra de los migrantes y minorías étnicas en sus plataformas. Esto significa un cambio respecto a un año antes, en que Mark Zuckerberg, director ejecutivo de Facebook, adoptó una postura más tajante acerca de la libertad de expresión. “Soy judío, y una serie de personas niegan que el Holocausto ocurrió,” señaló Zuckerberg. “Esto me parece profundamente ofensivo. Pero al fin y al cabo, no creo que nuestra plataforma deba retirarlo, porque pienso que hay cosas sobre las cuales diferentes personas tienen una idea equivocada.”
Pero, el atentado terrorista en Nueva Zelanda del 15 de marzo ha acelerado las medidas en contra de la propaganda del supremacista blanco. El autor de la masacre en las mezquitas de Christchurch transmitió en vivo las atrocidades, a través de Facebook, como si se tratara de un juego de computadora.
Hubo medios que pasaron una porción de estas imágenes, sin filtros, lo cual puso de nuevo el tópico en discusión. Las propias redes sociales se vieron obligadas a reaccionar rápidamente para evitar que se divulgue el terrorismo. El video fue retirado por Facebook un hora después del ataque que acabó con la vida de 50 personas e hirió a otras 50. En aquel momento, esta red social anunció que en las siguientes 24 horas al evento ha retirado 1.5 millones de copias del video. YouTube, por supuesto, también tomó acciones rigurosas para evitar que se propague el video horas después de la masacre.
Claro está que fue imposible evitar del todo su difusión. Recientemente un grupo franco musulmán de apoyo presentó una demanda en contra de Facebook y YouTube, supuestamente por no haber retirado las secuencias del atentado con la celeridad suficiente. “Facebook debe asumir parte de la responsabilidad en esto y debe hacer todo para anticipar estas transmisiones en vivo, de la misma manera [que lo hace] con los mensajes de odio e islamofobia en sus redes,” señaló Ahmet Ogras, presidente del Consejo Francés de la Fe Musulmana.
Una línea similar fue adoptada por la Primera Ministra de Nueva Zelanda, Jacinta Arden, quien declaró que la red social debe considerarse “el editor, no solo el cartero”.
Propagar la discriminación en contra de la comunidad musulmana, y sobre todo el temor a nuevos atentados terroristas de los supremacistas blancos, llevó a las redes sociales a actuar con rapidez.
EN el pasado reciente, Facebook y Twitter libraron una dura batalla en contra de la propaganda yihadista, particularmente la difundida por Estado Islámico (ISIS). La atención ahora ha virado hacia los nacionalistas blancos, neonazis, y supremacistas blancos quienes están adoptando una serie de tácticas similares a las de los yihadistas en la esfera cibernética. El discurso popular que apela al odio contra los que tienen distinto color de piel y otra religión –y se mezcla con noticias falsas acerca de oponentes políticos– se ha transformado en un problema creciente en Europa y Estados Unidos.
En mayo de 2018, una investigación periodística a cargo de la revista en línea Motherboard reveló que si bien Facebook desterró la “supremacía blanca” de su plataforma, permitía tanto el “nacionalismo blanco” como el “separatismo blanco.” El artículo provocó controversia entre los responsables de la comunidad académica y derechos civiles, quienes argumentaron que no había diferencias entre estas ideologías.
En el curso de diez meses, Facebook e Instagram dieron marcha atrás y decidieron vedar las tres ideologías, puesto que no había diferencia significativa entre ellas. “Originalmente no apelamos a la misma base lógica de las expresiones nacionalismo blanco y separatismo blanco porque pensamos en conceptos más amplios de nacionalismo y separatismo –como el orgullo americano y separatismo vasco, que son una parte importante de la identidad de la gente”, escribió Facebook en un artículo de blog titulado “De pie frente al Odio.” Después de tres meses de consulta con “miembros de la sociedad civil y académicos”, la empresa consideró que “no se podía separar de manera significativa nacionalismo blanco y separatismo blanco de supremacía blanca y los grupos de odio organizados”.
Las personas que buscan estos términos, serán dirigidas a Life After Hate (La Vida después del Odio), una organización sin fines de lucro que, “fundada por otrora extremistas violentos, ofrece intervención en crisis, educación, grupos de apoyo y extensión”.
Los resultados de esta política más restrictiva comenzaron a sentirse a principios de año. El fundador del movimiento callejero de extrema derecha y anti-islámico, Liga de Defensa Inglesa (EDL, por su sigla en inglés), Tommy Robinson, fue proscrito de estas dos redes sociales. Según Facebook e Instagram, Robinson violaba su código de lenguaje de odio, una resolución que Twitter ya había presentado. Hoy en día, Robinson puede llegar únicamente a grandes audiencias en Internet a través de YouTube, aunque su presencia en Facebook no se ha erradicado del todo. Se mantiene, por ejemplo, una grabación de Robinson debatiendo sobre un musulmán en la BBC.
La misión en contra del odio racial en línea cobró ímpetu una vez más en abril, al anunciar que una docena de individuos británicos y organizaciones de extrema derecha habían sido proscritos de Facebook. Según la BBC, esta lista negra incluye al Partido Nacional Británico y su exlíder, Nick Griffin; Britain First, su líder Paul Golding,y el otrora presidente adjunto Jayda Fransen; el EDL y su miembro fundador Paul Ray; Knights Templar Internacional y su promotor Jim Dowson; el National Front y su líder Tony Martin; y a Jack Renshaw, un neonazi que conspiró para asesinar a un diputado laborista.
En Portugal se retiraron asimismo de Facebook varias páginas del grupo neonazi Nova Ordem Social (NOS), bajo presión de los llamados movimientos “antifacistas”.
El sitio portugués Polígrafo, que se había especializado en difundir noticias falsas –en las redes tradicionales, al igual que en Internet y la blogoesfera– reveló que la extrema derecha había interpelado esta decisión, reclamando por la persecución y violación de la libertad de expresión, un derecho garantizado en la Constitución portuguesa. Actualmente en Facebook hay solo una página personal de Mario Machado, el líder de NOS. Y no hay señal de la vida de NOS, al menos oficialmente.
Pero NOS sigue muy activa en otra red social importante: Twitter. Tiene más de 300 tweets en contra de inmigrantes, el sistema democrático y el Islam. En abril NOS escribió “¡DETENER AL ISLAM antes de que sea demasiado tarde!” o “La alegría de los musulmanes con el incendio de Notre Dame”, “¡Los bastardos enfermos!!”. Estos tres tweets están aún activos en línea.
Como muestra el caso de NOS, falta mucho por hacer en contra de la extrema derecha en las redes sociales.
Con todo, los recientes cambios introducidos por Facebook parecen sinceros. Nunca los directores ejecutivos de Facebook, Instagram o Twitter han estado tan conscientes del peligro que plantea el lenguaje de odio en sus plataformas –y el precio político por no actuar en contra de ello. Nunca hubo tanto público y presión oficial sobre las redes sociales por la supresión del contenido de la extrema derecha como en el presente, y ninguno de ellos desea ser acusado de complicidad en la siguiente masacre Christchurch.