Facebook, moteur de haine

Le réseau social est soupçonné d’avoir fermé les yeux sur les appels au meurtre contre les Rohingyas en Birmanie.

« Violations des droits de l’Homme ». Le géant des réseaux sociaux invoque ce motif, le 27 août dernier, pour justifier la fermeture de la page Facebook du chef de l’armée birmane : le général Min Aing Hlaing. Ironie du sort, cette annonce intervient le jour même où les enquêteurs de l’Onu demandent à la justice internationale de le poursuivre, ainsi que cinq autres hauts gradés de la junte birmane, pour « génocide », « crimes contre l’humanité » et « crimes de guerre » à l’encontre des musulmans rohingyas.

Le 12 mars 2018, les réseaux sociaux étaient en effet accusés d’avoir joué un « rôle déterminant » dans la propagation des discours de haine au Myanmar,  selon Marzuki Darusman, le président de la mission d’enquête internationale indépendante des Nations unies en Birmanie. En ligne de mire : Facebook, suspecté d’avoir « contribué de manière substantielle  au niveau d’acrimonie, de dissension et de conflit au sein de la population », alors même que, depuis plusieurs années, des voix s’élèvent pour dénoncer le génocide des Rohingyas. Quant au général Min Aing Hlaing, il avait migré sur le réseau social russe VK, qui, à son tour, a fermé son compte le 17 septembre.

Réfugié rohingya. Photo : Mohammad Rakibul Hasan. Tous droits réservés.

Le réseau social est le média principal des Birmans. Le nombre de ses utilisateurs est passé d’environ 2 millions en 2014 à près de 30 millions, soit plus de la moitié de la population. Principales raisons :la chute du prix des cartes SIM, de 3 000 à 1 euro en sept ans, et la vente de téléphones où l’application Facebook est pré-installée. Un cadeau du ciel pour le gouvernement qui l’utilise largement pour sa communication officielle.

Selon le New York Times, Zaw Htay, son porte-parole, serait à l’origine d’une douzaine de posts sur sa page contenant des images pour démontrer que les Rohingyas incendiaient leurs propres maisons. La réalité sur le terrain était tout autre, assure Kyaw Win, directeur de l’ONG Burma Human Rights Network (BHRN), qui dispose, depuis 2012, d’une équipe dédiée à la surveillance des discours de haine sur Internet. Rencontré dans un restaurant londonien à proximité de Trafalgar Square, il affirme que des journalistes en ont fourni la preuve 1 :

« Le gouvernement a recruté des centaines d’Hindous dont la couleur de peau ressemblait celle des Rohingyas. Ils les ont vêtus des tuniques de musulmans et leur ont demandé de mettre le feu à des maisons, puis ils ont pris des photos pour les diffuser sur les médias birmans et les réseaux sociaux ». Kyaw Win accuse les autorités birmanes d’avoir « créé de toutes pièces des fake news pour tromper les gens et semer la confusion dans les esprits », mais aussi Facebook d’avoir trop longtemps fermé les yeux sur les prêcheurs de haine qui inondent la plateforme de messages discriminatoires et d’appels à la violence.

Parmi eux, le moine bouddhiste extrémiste Ashin Wirathu, qui bénéficie d’une puissante caisse de résonance grâce à ses centaines de milliers d’abonnés sur Facebook. Selon Kyaw Win, Wirathu attaque les musulmans sur les réseaux sociaux depuis 2012. « Il postait régulièrement des photos, des vidéos des extraits de ses conférences en délivrant ses messages clefs remplis de haine envers les musulmans. Il les diabolisait en disant par exemple que c’étaient des serpents…C’est comme ça que la colère s’est accumulée dans les esprits des Birmans au fil des années ». Jusqu’à ce que Facebook prenne la décision de supprimer son compte en février 2018, soit six mois après les attaques sanglantes d’août 2017…

Ashin Wirathu. Tous droits réservés.

« Quand la contestation internationale a commencé à monter, Facebook a réalisé qu’il pourrait être affecté par le génocide birman et a fini par supprimer son compte, analyse Kyaw Win. Cela montre l’hypocrisie de l’entreprise, préoccupée uniquement par le profit ». Il fustige ainsi « l’irresponsabilité » de la firme de Mark Zuckerberg, coupable d’avoir mis en placeun système de modération à géométrie variable. « Quand on signale des discours de haine à Facebook, ils rétorquent qu’ils n’enfreignent pas les standards de leur communauté (règles de bonne conduite, ndlr)… Et, dans le même temps, ils suppriment les comptes des pacifistes qui essayent de dialoguer avec les extrémistes sur sa plateforme ».

Des messages pacifistes supprimés

C’est ce qui est arrivé à Aung Tin, président de la Burmese Muslim Association (BMA). Il assure « n’avoir jamais promu la haine sur la plateforme, mais plutôt l’amour et la tolérance » parce qu’il s’est toujours « farouchement opposé aux extrémismes ». En septembre 2016, un militaire poste le message suivant sur Facebook : « Je tuerai les « dog-Kalar » (Rohingyas, ndlr) et leur Dieu Allah avec mon pistolet ». Aung Tin réplique que « la dictature militaire est en train d’empoisonner les esprits des gens » et voit son compte Facebook désactivé durant trois jours, tandis que le post du militaire reste en ligne.

Rebelote en mars 2017 quand Aung Tin réagit pacifiquement aux propos du general Kyaw Swe qui déclare : « Les moines du Myanmar ne tuent jamais ». Conséquence : son post est supprimé, son compte désactivé durant trois jours, avant de nouvelles suspensions de comptes les semaines suivantes. Pour Kyaw Win, « Facebook se contente de supprimer les contenus et les comptes quand l’entreprise reçoit un grand nombre de signalements. Ses modérateurs ne vérifient pas dans le détail le contenu ou le contexte des posts ».

Illustration : Alex Castro / The Verge

Une analyse que nuance Fabrice Epelboin, enseignant à Sciences Po et spécialiste des réseaux sociaux. « Si les systèmes de modération de Facebook étaient essentiellement déclenchés par des dénonciations en masse il y a une dizaine d’années », le dispositif se serait complexifié depuis l’émergence de l’intelligence artificielle (IA). « Facebook utilise l’intelligence artificielle pour personnaliser le flux d’informations que vous recevez, mais aussi pour pondérer et modérer les contenus ».

La décision de supprimer un contenu ou désactiver un compte est prise « soit par des algorithmes d’IA, soit par des êtres humains qui travaillent dans des call centers, eux-mêmes vraisemblablement assistés par une IA ». Or, les « êtres humains » tenus d’appliquer les « règles de bonne conduite » de Facebook ont leur propre culture, notamment en matière de liberté d’expression. Fabrice Epelboin cite un exemple : « Juger qu’un contenu est antisioniste plutôt qu’antisémite est lié à un contexte culturel et politique, c’est parfois extrêmement subjectif. Ce jugement ne sera pas le même en France, aux USA, au Japon ou au Maghreb. Il y a des fossés culturels entre les algorithmes et des êtres humains, mais également quand les signalements émis dans un territoire sont modérés dans un call center installé dans un autre ». Difficile dans ces circonstances de séparer le bon grain de l’ivraie…

« Une machine à conflits »

Plus grave encore : les algorithmes de Facebook offriraient une visibilité accrue aux messages virulents. Selon un article du New York Times, les posts les plus partagés et les plus likés occuperaient une place privilégiée dans le fil d’actualités de Facebook, favorisant les contenus les plus partisans. Une hypothèse confirmée par Fabrice Epelboin pour  qui le mastodonte américain est « une machine à conflits ».

D’après lui, « la haine et l’agressivité génèrent de l’engagement, c’est-à-dire de l’interaction, des échanges, du temps passé sur la plateforme, donc des revenus publicitaires. Les algorithmes qui gèrent les flux d’informations sur Facebook vont avoir tendance à optimiser la visibilité des contenus qui alimentent la haine et les conflits car ils rapportent de l’argent ». Conclusion : « La colère est le carburant de Facebook ».

Une critique confirmée dans un récent documentaire anglais 2 par l’homme d’affaires Roger McNamee, qui fut le mentor de Mark Zuckerberg à ses débuts : « Pour Facebook, les contenus les plus dangereux et les plus extrêmes sont comparables à la cocaïne ou au crack car ils attirent les gens les plus engagés sur la plateforme. Les extrémistes peuvent « provoquer » à eux-seuls des milliers de personnes. Voilà pourquoi Facebook est avide de contenus extrêmes : pour que les gens regardent le plus possible de publicités ».

Interrogé sur son rôle dans la propagation des discours de haine en Birmanie devant le Congrès américain en avril dernier, Mark Zuckerberg a répondu par une pirouette : « Déterminer si quelque chose est un discours de haine est très complexe linguistiquement. Vous avez besoin de comprendre ce qu’est une insulte et si quelque chose est odieux, et pas seulement en anglais… », a-t-il prétendu. Le patron de Facebook était également accusé d’avoir laissé circuler en septembre dernier une rumeur annonçant des attaques imminentes de bouddhistes et de musulmans. Les messages n’auraient été supprimés que quatre jours après, alors que des signalements étaient intervenus très vite sur la plateforme…

Sommé de réagir, Mark Zuckerberg a annoncé qu’il allait renforcer son système d’alerte au sein de l’application Messenger. Le réseau social affirme également avoir recruté 60 personnes parlant le birman pour prendre en charge les signalements des utilisateurs. Insuffisant pour les acteurs de la société civile qui rappellent que Facebook a embauché 1 200 personnes pour effectuer ces contrôles en Allemagne où la plateforme compte 40 millions d’utilisateurs…

Cette annonce est un trompe-l’oeil selon Kyaw Win : « Facebook fait le calcul suivant : si nous employons plus de personnes, notre qualité de services sera meilleure, mais nous ferons moins de profits… Donc laissons les personnes risquer leur vie pour garder nos marges. C’est un comportement indécent et cynique ». Quant aux sacro-saints algorithmes censés détecter automatiquement les contenus haineux, ils peinent encore à reconnaître les caractères birmans « qui s’affichent souvent de manière incorrecte sur écran », selon un témoignage anonyme d’un responsable de Facebook.

Le coût de la modération

Mais le véritable problème est ailleurs, selon Fabrice Epelboin, persuadé que le géant américain n’aura jamais la capacité financière de mettre en place un système de modération digne de ce nom car l’entreprise est « coincée dans un modèle économique qui l’oblige à afficher des profits toujours plus croissants pour éviter la chute de leur cours en bourse ». L’Intelligence artificielle ne permettra pas de tout régler. Sur quelles bases l’entreprise pourra-t-elle rendre des comptes à propos de contenus haineux ? Si elle s’appuie sur les logs, c’est-à-dire des fichiers stockant un historique des actions sur un compte, « ce sera difficile d’autant que tout sera aux mains d’entreprises privées… Donc vous allez confier la justice de votre pays – que ce soit la France ou la Birmanie – à un algorithme régi par une puissance étrangère », s’interroge Fabrice Epelboin.

À l’image de Palantir, une start-up de la Silicon Valley dont le cofondateur Peter Thiel siège au conseil d’administration de Facebook… Les puissants algorithmes de Palantir ont la capacité d’exploiter de gigantesques quantités de données. L’entreprise aurait notamment analysé les données de 87 millions d’utilisateurs de Facebook dans le cadre du scandale Cambridge Analytica qui a défrayé la chronique en mars dernier. Ses services sont aussi utilisés par la CIA, le FBI ou la NSA 3. Confier les rênes de la justice sur Facebook aux algorithmes de Palantir reviendrait donc à donner le pouvoir aux services de renseignement américain. À se demander si Einstein n’avait pas vu juste quand il a déclaré : « Le monde ne sera pas détruit par ceux qui font le mal, mais par ceux qui les regardent sans rien faire ».

Julien Moschetti

1. Notamment un reportage un reportage du correspondant de la BBC News Jonathan Head.

2. Le documentaire s’intitule Inside Facebook: Secrets of a Social Network .

3. National Security Agency (service de renseignement états-unien).

 

Publié dans La Chronique d’Amnesty International en octobre 2018.

Leave a Comment