Les réseaux de médias sociaux comme Facebook et Instagram ont annoncé en mars qu’ils voulaient interdire aux organisations et dirigeants d’extrême droite de répandre la haine contre les immigrants et les minorités ethniques sur leur plateforme. Cela représente un changement comparé la situation qui prévalait il y a un an, lorsque Mark Zuckerberg, le PDG de Facebook, a adopté une position beaucoup plus absolutiste sur la liberté d’expression. «Je suis juif, et il existe un ensemble de personnes qui nient que l’Holocauste a eu lieu,» déclare Zuckerberg. «Je le trouve profondément offensant. Toutefois, en fin de compte, je ne crois pas que notre programme devrait l’abolir parce que je pense que les gens se trompent sur certaines choses.»
Cependant, l’attentat terroriste du 15 mars en Nouvelle-Zélande a accéléré les mesures contre la propagande suprématiste blanche. L’auteur du massacre des mosquées de Christchurch a diffusé en direct les atrocités sur Facebook, comme s’il s’agissait d’un jeu vidéo.
Certains médias ont diffusé une partie de ces images, sans filtres, ce qui a remis le sujet à l’ordre du jour. Les réseaux sociaux eux-mêmes ont été contraints de réagir rapidement pour prévenir la propagation de la terreur. La vidéo a été retirée par Facebook une heure après l’attaque qui a tué 50 personnes et en a blessé 50 autres. Ce réseau social a annoncé à l’époque qu’il avait retiré 1,5 million de copies de la vidéo, dans les 24 heures qui ont suivi l’attentat. YouTube a également pris des mesures rigoureuses pour supprimer la vidéo dans les heures qui ont suivi le massacre.
Il a été impossible d’empêcher complètement la diffusion de la vidéo, bien sûr, et récemment, un groupe de défense des musulmans français a intenté une action en justice contre Facebook et YouTube pour ne pas avoir retiré les images de l’attaque assez rapidement. «Facebook doit assumer sa part de responsabilité et tout mettre en œuvre pour anticiper ces retransmissions en direct, au même titre que les messages de haine et l’islamophobie sur ses réseaux», a déclaré Ahmet Ogras, président du Conseil français du culte musulman.
Le Premier ministre néo-zélandais, Jacinta Arden, a adopté une position similaire en déclarant que les médias sociaux sont «l’éditeur, pas seulement le facteur».
La généralisation de la discrimination à l’égard de la communauté musulmane et, surtout, la crainte d’autres attentats terroristes commis par des suprématistes blancs ont amené les réseaux sociaux à agir rapidement.
Dans un passé récent, Facebook et Twitter ont mené une guerre acharnée contre la propagande djihadiste, en particulier celle diffusée par l’État islamique (Daesh). L’attention se tourne maintenant vers les nationalistes blancs, les néonazis et les suprématistes blancs, qui adoptent un certain nombre de tactiques similaires à celles des djihadistes dans le cybermonde. Le discours populiste qui fait appel à la haine de ceux qui ont une couleur de peau et une religion différentes — mélangé à de fausses nouvelles sur les opposants politiques — est devenu un problème croissant en Europe et en Amérique.
En mai 2018, une enquête journalistique menée par le magazine en ligne Motherboard a révélé que bien que Facebook avait banni «la suprématie blanche» de sa plateforme, il autorisait toujours le «nationalisme blanc» et le «séparatisme blanc» d’y avoir accès. L’article a suscité beaucoup de controverse au sein de la communauté universitaire et parmi les dirigeants des droits civils qui ont soutenu qu’il n’y avait pas de différences entre ces idéologies.
En dix mois, Facebook et Instagram avaient changé de cap et décidé d’interdire aux trois idéologies l’accès à sa plateforme puisqu’il n’y avait pas de différence significative entre elles. «À l’origine, nous n’avons pas appliqué la même logique aux expressions du nationalisme blanc et du séparatisme blanc parce que nous pensions à des concepts plus larges du nationalisme et du séparatisme — des réalités comme la fierté américaine et le séparatisme basque, qui sont une part importante de l’identité des gens», écrit Facebook dans une publication sur un blog intitulée «Debout contre la haine». Après trois mois de consultation avec «des membres de la société civile et des universitaires», l’entreprise a constaté que «le nationalisme blanc et le séparatisme blanc ne peuvent être séparés de manière significative de la suprématie blanche et des groupes haineux organisés».
Pour les personnes qui font des recherches sur ces termes, ils seront dirigés vers Life After Hate, un organisme à but non lucratif «fondé par d’anciens extrémistes violents qui offre des services d’intervention d’urgence, d’éducation, de groupes de soutien et de vulgarisation».
Les résultats de cette politique plus restrictive ont commencé à se faire sentir au début de l’année. Le fondateur du mouvement de rue populiste de droite et anti-islamique, English Defense League (EDL), Tommy Robinson, a été banni de ces deux réseaux sociaux. Selon Facebook et Instagram, Robinson s’est rendu coupable d’avoir enfreint leur code sur discours haineux, verdict que Twitter avait déjà rendu. Aujourd’hui, Robinson ne peut atteindre un large public sur Internet que par YouTube, bien que sa présence sur Facebook n’ait pas été totalement éradiquée. Il reste, par exemple, des images de Robinson débattant d’un musulman sur la BBC.
La mission contre la haine raciale en ligne a pris un nouvel élan en avril avec l’annonce de l’interdiction de l’accès à Facebook à une douzaine de personnes et d’organisations d’extrême droite britanniques. Selon la BBC, cette liste noire comprend le British National Party et son ex-leader Nick Griffin ; Britain First, son leader Paul Golding et son ancien leader adjoint Jayda Fransen; l’EDL et son membre fondateur, Paul Ray ; Knights Templar International et son promoteur Jim Dowson; The National Front et son leader Tony Martin ; et Jack Renshaw, un néonazi qui a comploté pour tuer un parlementaire travailliste.
Au Portugal, plusieurs pages du groupe néonazi Nova Ordem Social (NOS) ont également été retirées de Facebook sous la pression des mouvements dits «antifascistes». Le site portugais Polígrafo, spécialisé dans la diffusion de fausses nouvelles — sur les médias traditionnels, ainsi que sur Internet et dans la blogosphère — a révélé que l’extrême droite a fait appel de cette décision, se plaignant de persécution et de violation de la liberté d’expression, un droit garanti dans la Constitution portugaise. Actuellement, sur Facebook, il n’y a qu’une seule page personnelle de Mário Machado, leader du NOS. Et il n’y existe aucun signe de vie du NOS, du moins officiellement.
Mais le NOS reste très actif sur un autre réseau social important: Twitter. Il est auteur de plus de 300 tweets contre les immigrants, le système démocratique et l’Islam. En avril le NOS a publié des tweets suivants: «STOP ISLAM! Before is too late!» (STOP à l’Islam! Avant qu’il ne soit trop tard!) ou «The Muslims’ happiness with Notre Dame fire. The sick bastards!!» (Le bonheur des musulmans à l’occasion de l’incendie de Notre Dame. Ces salauds de malades!!). Ces tweets sont toujours actifs en ligne.
Comme le montre l’affaire NOS, il reste encore beaucoup à faire contre l’extrême droite sur les médias sociaux.
Pourtant, les récents changements entrepris par Facebook semblent sincères. Jamais les PDG de Facebook, d’Instagram ou de Twitter n’ont été aussi conscients du danger que représente le discours haineux sur leur plateforme — et du prix politique à payer pour n’avoir pas agi contre lui. Il n’y a jamais eu autant de pressions publiques et officielles sur les médias sociaux pour qu’ils suppriment les contenus d’extrême droite qu’aujourd’hui, et aucun d’eux ne souhaite être accusé de complicité dans le prochain massacre de Christchurch.