Assiégée par une série de scandales à la suite des révélations choquantes des « Facebook Papers » [3] qui ont fuité, Meta affirme que le rapport s’inspire de la disposition inscrite dans les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme selon laquelle les entreprises « savent et montrent » qu’elles respectent les droits fondamentaux.
Cependant, ce rapport apparaît comme une analyse superficielle et sélective des impacts de l’entreprise sur les droits humains, ne révélant manifestement aucune information sur les menaces les plus urgentes que l’entreprise fait peser sur les droits fondamentaux dans le monde.
Qu’en est-il du modèle économique ?
Le Rapport sur les droits humains ne fait aucune mention de la cause profonde de la menace systémique que représente Meta pour les droits humains : le modèle économique de la publicité basée sur la surveillance, qui pousse l’entreprise à collecter toujours plus de données, et toujours plus personnelles, sur les utilisatrices et les utilisateurs, pour ensuite vendre des publicités ciblées.
Comme l’a souligné Amnesty International dans son rapport de 2019 sur les géants de la surveillance, le modèle économique de Meta représente une grave menace pour les droits humains, notamment les droits à la vie privée, à la liberté d’expression et à la non-discrimination. Il s’agit d’une omission flagrante dans l’évaluation de Meta, car son modèle économique est au cœur de ses répercussions néfastes sur les droits humains à travers le globe.
Bon nombre des atteintes aux droits humains causées par l’entreprise découlent de son besoin de maintenir l’engagement des utilisateurs et de les pousser à rester actifs sur ses plateformes. La pilule est peut-être difficile à avaler, mais comment Meta pourrait-elle prétendre qu’elle est déterminée à respecter les droits humains, en particulier le droit à la vie privée, tout en continuant de tracer les utilisateurs sur Internet et dans leur vie quotidienne ?
Absence des algorithmes
En outre, le rapport ne mentionne pas le fait que les algorithmes qui façonnent les contenus sur les plateformes de réseaux sociaux de Meta amplifient activement les contenus néfastes, notamment la haine et la discrimination, afin de garder les utilisatrices et les utilisateurs en ligne et d’engranger des revenus publicitaires supplémentaires.
Du fait de la conception de ces algorithmes, Meta risque de contribuer à des violences à caractère ethnique dans le monde. Des experts de l’ONU ont déjà constaté que la plateforme Facebook avait joué un rôle [4] dans la déshumanisation des musulmans rohingyas au Myanmar avant et pendant la campagne de violence menée par l’armée birmane en 2017.
En 2021, la lanceuse d’alerte Frances Haugen a accusé [5] les algorithmes de la plateforme Meta d’« attiser littéralement la violence ethnique » dans des pays comme l’Éthiopie.
Étant donné que les risques que présentent ces algorithmes sont considérablement accrus dans les pays du Sud où les plateformes appartenant à Meta telles que Facebook sont synonymes d’Internet, il est extrêmement préoccupant qu’ils ne figurent pas dans le Rapport sur les droits humains de Meta.
Absence de transparence sur l’Inde
Meta n’a publié qu’un résumé de l’étude d’impact sur les droits humains (EIDH), indépendante, tant attendue sur l’Inde – une décision inacceptable, étant donné que des organisations de la société civile, dont Amnesty International, ont demandé [6] à maintes reprises que le rapport intégral soit publié. Cela démontre l’absence totale de transparence concernant les risques relatifs aux droits humains identifiés et le fait que Meta les minimise dans le contexte de l’Inde. Les chercheurs ont déjà souligné le rôle [7] que la plateforme Facebook a joué dans la propagation de la haine en Inde – ce que nous devons savoir, c’est comment Meta garantira que cela ne se reproduise plus.
De nombreux éléments démontrent que Meta a bien du mal à s’attaquer aux contenus problématiques sur Facebook, en particulier dans les pays du Sud. Cependant, se contenter d’ignorer le problème ne le fera pas disparaître. Meta devrait afficher son réel désir de tirer les leçons du passé et rendre publique l’étude d’impact sur les droits humains sur l’Inde.
Cela est d’autant plus crucial en Inde, pays qui compte le plus grand nombre d’utilisateurs et d’utilisatrices de Facebook. La transparence est primordiale afin de remédier aux méfaits du modèle économique de Meta au niveau mondial. Il ne fait guère de doute que Meta refuse de publier cette étude pour éviter que le reste du monde ne connaisse la vérité sur ses activités dans le pays.
Les risques en matière de droits humains ne sont ni évalués ni dénoncés
Nous saluons le fait que Meta se soit engagée fermement à respecter les droits humains conformément aux normes internationales, mais le Rapport sur les droits humains n’aborde pas certains des impacts les plus pressants de l’entreprise sur ces droits. En particulier, le manque de transparence concernant l’étude sur l’Inde est une manœuvre détestable visant à blanchir [8] les impacts de Meta dans le pays – ainsi qu’une occasion manquée pour l’entreprise de démontrer son réel engagement en faveur des droits.
Meta doit être prête à se saisir des questions épineuses autour de son modèle économique, afin de remédier pleinement aux risques pour les droits humains qu’engendrent ses plateformes. Tant que ce ne sera pas le cas, ses soi-disant efforts visant à respecter les droits humains tiendront plus de la rhétorique que de la réalité.