« Ces allégations choquantes montrent, une fois de plus, que la plateforme de Facebook participe à la diffusion de contenus préjudiciables et violents à travers le monde, a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.
« Il faut que les autorités adoptent sans attendre une réglementation pour veiller à ce que les droits humains soient protégés efficacement sur Internet. Ces révélations montrent bien que nous ne pouvons pas compter sur les entreprises pour s’autoréguler »
« Facebook affirme ne pas “tirer profit de la haine”. Pourtant, d’après les documents internes communiqués par un lanceur d’alerte anonyme, l’entreprise a créé un système qui laisse le champ libre à ses utilisateurs de premier plan pour harceler, publier de fausses informations et inciter à la violence.
« Le message de Facebook est clair – si vous êtes suffisamment influent, vous pourrez tout vous permettre sur la plateforme.
« De plus, le fait que ces documents internes semblent contredire les garanties affichées publiquement par Facebook met en doute la confiance que nous pouvons accorder à l’entreprise et à ce qu’elle nous dit.
« En fin de compte, nous devons attaquer ce problème par la racine : le modèle économique de Facebook, à savoir la publicité basée sur la surveillance, qui repose sur une collecte de données et un profilage agressifs à grande échelle. Les algorithmes de Facebook amplifient la désinformation et les contenus clivants et favorisent le racisme, car ces contenus sont le plus souvent destinés à capter notre attention plus longtemps afin d’augmenter les revenus publicitaires.
« Il faut que les autorités adoptent sans attendre une réglementation pour veiller à ce que les droits humains soient protégés efficacement sur Internet. Ces révélations montrent bien que nous ne pouvons pas compter sur les entreprises pour s’autoréguler. »
Complément d’information
« Les algorithmes de Facebook amplifient la désinformation et les contenus clivants et favorisent le racisme, car ces contenus sont le plus souvent destinés à capter notre attention plus longtemps afin d’augmenter les revenus publicitaires »
Le programme de Facebook baptisé Cross-check (ou XCheck) a été conçu pour assurer des contrôles internes supplémentaires avant que l’entreprise ne prenne des décisions de modération sur des comptes de personnalités influentes.
Cependant, le Wall Street Journal a obtenu des documents remis par un lanceur d’alerte qui laissent penser que Facebook n’a pas mené à bien ces contrôles. Il apparaît que Facebook s’est servi de XCheck pour laisser carte blanche à ses utilisateurs de premier plan et leur éviter des mesures coercitives s’ils ne respectaient pas les conditions d’utilisation de la plateforme, y compris en matière de harcèlement et d’incitation à la violence.
Facebook a répondu au journal en déclarant : « Nous supprimons des contenus de Facebook, quelle que soit la personne qui les publie, lorsqu’ils sont contraires à nos règles. »