Publicité

Facebook a servi de « caisse de résonance anti-Rohingya », dénonce Amnesty

Dans un rapport très virulent, l'organisation de défense des droits de l'homme dénonce les « dangereux algorithmes » de Facebook, qui auraient « considérablement contribué aux atrocités » perpétrées par l'armée du Myanmar contre les Rohingya. L'ONG estime que le géant de la tech doit leur « verser des réparations ».

Les Rohingya, communauté à majorité musulmane de Birmanie, sont des milliers à avoir fui au Bangladesh en 2017, face à la répression militaire sanglante dans leur pays à majorité bouddhiste.
Les Rohingya, communauté à majorité musulmane de Birmanie, sont des milliers à avoir fui au Bangladesh en 2017, face à la répression militaire sanglante dans leur pays à majorité bouddhiste. (Ed Jones/AFP)

Par Leïla Marchand

Publié le 29 sept. 2022 à 07:01Mis à jour le 29 sept. 2022 à 15:54

À nouveau, Facebook est accusé d'attiser la haine en ligne. Cette fois, c'est Amnesty International qui prend la plume pour dénoncer le rôle qu'aurait joué la plateforme dans la sanglante répression militaire contre les Rohingya en 2017. « Les dangereux algorithmes de Meta, qui détient Facebook, ainsi que la recherche effrénée du profit ont considérablement contribué aux atrocités perpétrées par l'armée du Myanmar », affirme l'ONG dans un rapport publié ce jeudi.

Il y a cinq ans, alors que des milliers de membres de cette communauté à majorité musulmane étaient « tués, torturés, violés et déplacés » dans le cadre d'une « campagne de nettoyage ethnique », Facebook est devenu au Myanmar « une caisse de résonance pour les virulents contenus anti-Rohingya », condamne Amnesty.

A l'époque, le réseau social, très populaire, tenait une « position dominante » dans le pays, ce qui a rendu d'autant plus dramatique l'impact de ces contenus qui ont « inondé la plateforme ». Cette incitation à la violence et à la discrimination venait également des plus hauts représentants de l'armée, note l'ONG, qui cite une publication du général Min Aung Hlaing, finalement banni de Facebook en 2018.

Malgré les appels « répétés » de militants, qui pour certains ont même fait le voyage jusqu'au siège de Meta à Menlo Park en Californie, « Meta n'a pas tenu compte de ces avertissements » et la fonction « signalement » de la plateforme s'est révélée inutile, soutient l'association. Et pour cause : les effectifs chargés de la modération étaient trop peu nombreux, d'après le rapport, qui parle « d'un seul modérateur de contenu consacré au Myanmar et locuteur du birman » en 2014.

Publicité

Des algorithmes conçus pour diviser

Les années suivantes, Meta a admis ne pas avoir « fait assez pour empêcher que leur plateforme soit utilisée pour fomenter la division et inciter à la violence » et a fait état de certaines améliorations dans ses pratiques d'engagement communautaire et de modération du contenu au Myanmar (« des dizaines » de modérateurs auraient notamment été embauchés).

Une position insuffisante pour Amnesty International, qui accuse Meta ne « pas prendre en compte le rôle crucial joué par ses algorithmes » dans l'amplification du contenu anti-Rohingyas. L'ONG s'appuie sur les documents internes à Facebook , récemment rendus publics par la lanceuse d'alerte Frances Haugen , démontrant que son modèle économique fondé sur le ciblage publicitaire remonte systématiquement les contenus polarisants, qui suscitent plus d'engagement.

« Ce rapport révèle que Meta était au courant depuis longtemps des risques liés à ses algorithmes, mais n'a jamais agi en conséquence », martèle le rapport. Les responsabilités du géant de la tech étant établies au point de vue des droits humains, conclut le rapport, Meta « a la responsabilité de fournir aux survivants un recours effectif ».

Amnesty International déplore notamment le refus du groupe de Mark Zuckerberg de financer un projet d'enseignement dans un camp de réfugiés rohingya au Bangladesh. Un refus qui a donné lieu à une plainte contre l'entreprise, toujours en cours d'examen aux Etats-Unis.

Les Gafa s'étant « montrés incapables de traiter ce problème » de modération, selon l'ONG, celle-ci invite les Etats à intervenir en « appliquant une législation permettant de contrôler efficacement ​les modèles économiques basés sur la surveillance ». Cette préconisation fait écho au Digital Services Act (DSA), un texte actuellement préparé par Bruxelles sur la modération des contenus. Et déjà vivement critiqué par les Gafa.

Meta « solidaire de la communauté internationale »

A la suite de la publication de l'article, Rafael Frankel, directeur des politiques publiques pour les marchés émergents, Meta APAC, a réagi dans un communiqué : « Meta est solidaire de la communauté internationale et soutient les efforts visant à tenir le Tatmadaw responsable de ses crimes contre le peuple Rohingya. À cette fin, nous avons divulgué volontairement et légalement des données au Mécanisme d'enquête indépendant pour le Myanmar des Nations Unies et à la Gambie, et nous participons également actuellement au processus de plainte de l'OCDE. Notre travail en matière de sécurité et d'intégrité au Myanmar reste guidé par les commentaires des organisations de la société civile locale et des institutions internationales, notamment la mission internationale indépendante d'établissement des faits sur le Myanmar des Nations Unies, l'Etude d'impact sur les droits de l'homme que nous avons commanditée en 2018, ainsi que notre gestion continue des risques liés aux droits de l'homme ».

Leïla Marchand

MicrosoftTeams-image.png

Nouveau : découvrez nos offres Premium !

Vos responsabilités exigent une attention fine aux événements et rapports de force qui régissent notre monde. Vous avez besoin d’anticiper les grandes tendances pour reconnaitre, au bon moment, les opportunités à saisir et les risques à prévenir.C’est précisément la promesse de nos offres PREMIUM : vous fournir des analyses exclusives et des outils de veille sectorielle pour prendre des décisions éclairées, identifier les signaux faibles et appuyer vos partis pris. N'attendez plus, les décisions les plus déterminantes pour vos succès 2024 se prennent maintenant !
Je découvre les offres
Publicité