Quelques événements récents illustrent la manière dont Facebook – partisan déclaré des lois sur le blasphème - poursuit une « censure de type charia » sur tous les contenu qui lui paraissent contraires à ses « normes communautaires ».
Un article du Wall Street Journal du 8 janvier, a révélé que les dirigeants de Facebook - et Twitter - avaient bloqué l'activiste Laura Loomer sur plainte de Zahra Billoo, directrice exécutive du Conseil sur les relations américano-islamiques (CAIR), de la région de San Francisco. Facebook a toutefois omis de révéler que le CAIR était un co-conspirateur non inculpé dans la plus grande affaire de financement du terrorisme dans l'histoire des États-Unis. CAIR a également été désigné comme une organisation terroriste par les Emirats Arabes Unis.
Le pouvoir des dirigeants de CAIR sur les réseaux sociaux n'est étonnant qu'en apparence. Selon Sam Westrop de Islamist Watch :
« Depuis 2008, la Silicon Valley Community Foundation (SVCF) a versé 330 524 dollars (292 000 euros) à deux organisations islamistes, le Conseil sur les relations américano-islamiques (CAIR) et Islamic Relief ... La SVCF qui gère un actif de plus de 13,5 milliards de dollars est la plus importante fondation communautaire américaine. Les plus grandes entreprises de la high tech américaine sont partenaires de la Fondation. Avec un don de 1,5 milliard de dollars, Mark Zuckerberg, fondateur de Facebook, est le plus gros donateur du SVCF ».
En d'autres termes, la Silicon Valley semble avoir pris l'habitude de financer les islamistes.
Selon Jihad Watch, Billoo, « dans des tweets qui demeurent en ligne ... a exprimé elle-même son aspiration au califat islamique et à la charia. Elle affirme également, dans de multiples tweets, que l'Etat islamique n'est pas moins moral que les armées américaine et israélienne, ajoutant que « nos troupes sont engagées dans le terrorisme ».
En janvier, Facebook a supprimé, sur la page Political Gamers UK., des publicités en faveur de « Britain First » (La Grande Bretagne d'abord), une pétition contre le réaménagement et l'extension d'une mosquée du Royaume-Uni. « Britain First » a annoncé qu'il intenterait une action en justice contre le géant des réseaux sociaux pour « discrimination politique ».
Ces deux cas de censure récents sur Facebook n'ont rien d'exceptionnel. En 2018, les cas de censure les plus marquants sur Facebook ont été les suivants :
- Le site d'information Voice of Europe a indiqué qu'il avait été censuré et bloqué à plusieurs reprises en raison d'articles mettant en valeur l'attitude critique des hommes politiques des Etats d'Europe centrale et orientale envers le mouvement migratoire. Parmi les textes censurés, on trouve une critique du livre de l'ancien président tchèque Vaclav Klaus, Europe All Inclusive, avec la citation suivante : « L'afflux de migrants est comparable aux invasions barbares de l'Europe ». Voice of Europe a décidé de ne plus publier toutes ses « actualités sur Facebook, car nous ne voulons pas perdre notre page »
- Le Dr. Michael Hesemann, historien et auteur catholique allemand, a vu ses commentaires sur le rôle historique de l'islam en Europe supprimés en raison de leur non conformité aux « standards de la communauté » Facebook. Hesemann avait écrit : « L'islam n'a jamais joué qu'un seul rôle tout au long de ses 1700 ans d'histoire avec l'Occident chrétien : celui d'une épée de Damoclès au-dessus de nos têtes, une menace de barbarie contre laquelle il fallait s'unir et se battre. En ce sens, l'islam ne fait pas partie de l'histoire allemande ... »
- Jamie Glazov, rédacteur en chef de Frontpage Magazine, a été bloqué 30 jours pour avoir posté des captures d'écran des menaces que certains musulmans lui ont adressé. Facebook l'avait déjà bloqué pendant 30 jours, pour un article écrit le jour du 17 e anniversaire du 11 septembre et qui t raitait de la meilleure manière de prévenir les 11 septembre à venir (9 étapes pour contrer le Jihad avec succès). Dernièrement, un autre géant des réseaux sociaux, Twitter, a averti Glazov que son nouveau livre, « Jihadist Psychopath: How He Is Charming, Seducing, and Devouring Us » (Comment le psychopathe djihadiste nous charme, nous séduit et nous dévore), viole le code pénal pakistanais qui protège « le Saint Coran contre toute profanation ». Twitter n'a pas pris de mesure particulière en sus de cet avertissement, lequel peut être lu comme un indicateur des bonnes dispositions des médias sociaux envers les lois de la charia).
- Facebook a fermé la page de l'imam australien Mohammad Tawhidi coupable de s'être « moqué du groupe terroriste Hamas et d'avoir tenu des propos sarcastique sur les « pacifiques manifestations palestiniennes ».
- Facebook a définitivement bloqué la page de la branche européenne du mouvement de jeunesse anti-migrants Generation Identity en raison de son « contenu extrémiste ».
- Facebook a censuré une critique du traitement que l'islam réserve aux homosexuels affirmant qu'il s'agissait d'un « discours de haine ». Le rédacteur en chef du site Internet Politicalite, auteur de l'article, a été bloqué pendant 30 jours.
- Facebook bloque régulièrement – dernièrement en septembre et en décembre - les publications de Jihad Watch, le site Internet de l'historien et auteur Robert Spencer.
Les exemples ci-dessus ne sont qu'une infime partie des mesures de représailles prises par Facebook lesquelles ne concernent que les utilisateurs jouissant d'une grande notoriété. Nombre de personnes moins connus sont censurés et interdites tout le temps. Au point qu'en Allemagne, Joachim Nikolaus Steinhöfel, avocat, journaliste et militant anti-censure, a monté un site Web pour recenser les atteintes à la liberté d'expression sur Facebook en Allemagne seulement. Or il y aurait beaucoup à dire : en juin 2017, Facebook a, de son propre aveu, supprimé en moyenne 288 000 publications par mois dans le monde.
Un chiffre qui n'a rien pour surprendre. Rappelons que Facebook est signataire du Code de conduite de la Commission européenne contre le discours de haine en ligne, lequel oblige le géant des médias sociaux à examiner et à supprimer, dans les 24 heures, le « discours de haine illégal ». Le vice-président des politiques publiques de Facebook, Richard Allan, écrivait en 2017 :
« Nous définissons le discours de haine comme une attaque contre une personne sur la base de ce qu'on appelle ses « caractéristiques protégées » - race, appartenance ethnique, origine nationale, appartenance religieuse, orientation sexuelle, sexe, identité de genre, handicap ou maladie grave.
« Il n'y a pas de définition universelle du franchissement de ligne ...
« Parfois, le propos haineux est si évident qu'il doit être supprimé, car il s'agit d'une incitation à la violence contre des caractéristiques protégées, ou de propos qui dégradent ou déshumanisent une personne. Chaque fois que nous identifions des menaces crédibles de violence imminente, notamment des menaces proférées sur la base d'une atteinte à une caractéristique protégée, nous bloquons et transmettons l'information à la police. »
Facebook fait toutefois preuve d'une sélectivité pour le moins "créative" dans l'application de ses propres règles. Ce réseau social affirme supprimer « tout contenu qui fait l'apologie de la violence ou célèbre les souffrances et l'humiliation d'autrui ». Mais en Suède, Ahmad Qadan a procédé régulièrement - en mode public sur sa page Facebook -, à des opérations de ramassage de fonds en faveur de l'Etat islamique. Ses messages sont demeurés en ligne pendant deux ans et n'ont fini par être supprimés que sur intervention de la Säpo (service de sécurité suédois). En novembre 2017, Ahmad Qadan a été condamné à six mois de prison pour avoir collecté des fonds à des fins d'achats d'armes au bénéfice des groupes terroristes Etat islamique et Jabhat al-Nusra et pour des posts appelant à « des actes de violence graves à l'encontre, principalement ou de manière disproportionnée, de civils afin de générer un climat de terreur dans la population ».
Facebook a répondu : « Nous commettons parfois des erreurs. Quand cela se produit, nous les corrigeons dès que nous en sommes informés ».
En septembre, les médias canadiens ont révélé que Zakaria Amara, chef d'une organisation terroriste de Toronto, condamné à la prison à perpétuité pour avoir planifié un attentat au camion piégé dans le centre-ville de Toronto sur le modèle d'Al-Qaïda, gérait une page Facebook sur laquelle il publiait des photos de sa prison et des réflexions sur son itinéraire de terroriste. Il a fallu que les médias canadiens interrogent Facebook sur le compte d'Amara pour qu'il soit supprimé « en raison de violation des normes de notre communauté ».
En France, un détenu identifié comme Amir a été accusé en novembre d'avoir utilisé un téléphone de contrebande pour poster, de sa cellule, des textes de propagande en faveur de l'Etat islamique. Facebook n'a à ce jour, pas réagi.
Plus récemment, en Allemagne, Frank Magnitz, député du parti anti-immigration Alternative pour l'Allemagne, a été l'objet d'une violente agression, que son parti a qualifiée de « tentative d'assassinat ». Un groupe "Antifa" (Antifa Kampfsausbildung), a posté "MERCI" aux agresseurs sans que cela émeuve Facebook. Le réseau social a-t-il estimé que l'agression physique d'un membre du parlement était conforme à ses "normes" communautaires ?
La sélectivité de Facebook pourrait s'expliquer par un certain nombre d'alliances officielles. En juillet 2017, Joel Kaplan, vice-président des politiques publiques de Facebook, aurait promis au ministre pakistanais de l'Intérieur, Chaudhry Nisar Ali Khan, de « supprimer les faux comptes et les contenus explicites, haineux et provocateurs incitant à la violence et au terrorisme ».
« Le porte-parole a déclaré que lors d'une conversation avec le vice-président de Facebook, Nisar avait affirmé que la Oumma musulmane était perturbée et vivement préoccupé par l'usage abusif que certains faisaient des réseaux sociaux pour diffuser des contenus blasphématoires ... Nisar a déclaré que le Pakistan appréciait la compréhension manifestée par les dirigeants de Facebook et leur coopération sur ces questions. »
Mark Zuckerberg semble en vérité, plus enclin que jamais à la censure. Dans une note récente au style tout à la fois ampoulé, bureaucratique et obscur, le PDG de Facebook a décrit une stratégie de lutte contre les « contenus limite » (borderline), un concept vide de sens pour désigner tout ce que Zuckerberg et Facebook pourraient jamais envisager de censurer. Voici comment Zuckerberg le définit :
« Le plus gros problèmes des réseaux sociaux est le contrôle. Sans contrôle, les gens chercheront à se faire remarquer en postant des contenus toujours plus sensationnalistes et provocateurs ... À grande échelle, la qualité du discours public en sortirait profondément altérée et pourrait conduire à la polarisation. Pour ce qui nous concerne, le service que nous rendons en sortirait dégradé.
« Nos études montrent que, ou que la limite soit tracée, les contenus tendent à s'en rapprocher, et les gens à s'y intéresser davantage...
« Il s'agit d'un problème basique d'incitation auquel il est possible de remédier en pénalisant le contenu limite afin qu'il soit moins partagé et suscite moins d'engagement. En donnant à la courbe de distribution l'aspect du graphique ci-dessous, la distribution diminue à mesure que le contenu devient plus sensationnel. Ainsi, es gens ne sont pas incités à créer un contenu provocateur qui se rapproche de la limite.
« Nos recherches ont montré que ce modèle qui fait que plus un contenu est limite et plus les gens s'y intéressent ne s'applique pas seulement aux actualités mais à presque toutes les catégories de contenu. Ainsi, des photos proches de la nudité, des vêtements révélateurs ou des positions suggestives... généraient un vif intérêt avant que nous modifiions la courbe de distribution pour décourager ce phénomène. Il en va de même pour les publications qui ne heurtent pas notre définition du discours de haine, mais qui demeurent offensantes.
« Ce comportement s'applique aussi aux groupes auxquels les gens adhèrent et aux pages qu'ils suivent. C'est particulièrement important car les réseaux sociaux en général exposent les gens à des points de vue plus variés, et tandis que les groupes encouragent l'inclusion et l'acceptation, d'autres groupes et pages clivantes peuvent alimenter la polarisation. Pour gérer cela, nous devons appliquer nos règles de distribution modifiées non seulement au classement, mais également à tous nos systèmes de recommandation pour les projets auxquels vous devriez adhérer. »
Il est curieux que Zuckerberg présente comme une nouveauté cette idée de désincitation pour les "contenus limites", alors qu'il s'agit d'une règle incontournable de Facebook depuis plusieurs années. En novembre 2017, par exemple, « l'audience de Jihad Watch sur Facebook a chuté de 90% et ne s'est jamais rétablie », indique le créateur du site, Robert Spencer.
De toute évidence, Facebook défend toujours les lois sur le blasphème.