Les plaignants avancent que les systèmes de recommandation algorithmique de Facebook ont donné la priorité et promu des contenus dangereux, incendiaires et haineux sur la plateforme pendant le conflit, contribuant ainsi à de graves violations des droits humains. La Haute Cour du Kenya décidera si elle est compétente pour connaître de cette affaire.
L’équipe juridique de Meta a fait valoir que l’affaire ne devrait pas être examinée au Kenya puisque la société est enregistrée aux États-Unis et que les conditions d’utilisation de Meta exigent que de telles requêtes soient déposées aux États-Unis.
Elle a ajouté que les violations présumées des droits humains se sont produites en Éthiopie et ne sauraient donc être examinées au Kenya.
« Les communautés et les personnes victimes d’atteintes aux droits humains imputables à des multinationales doivent trop souvent lutter pour avoir accès à la justice et à des recours utiles »
« L’audience de ce jour porte sur deux aspects essentiels de la procédure : la demande des plaignants qui souhaitent que pas moins de trois juges soient nommés pour examiner l’affaire, car elle soulève d’importantes questions substantielles de droit, et le fait de déterminer si les tribunaux kényans sont compétents pour examiner l’affaire telle que contestée par Meta, a déclaré Mandi Mudarikwa, responsable des actions en justice stratégiques à Amnesty International.
« Les communautés et les personnes victimes d’atteintes aux droits humains imputables à des multinationales doivent trop souvent lutter pour avoir accès à la justice et à des recours utiles, du fait d’obstacles d’ordre juridictionnel, pratique et juridique. C’est pourquoi Amnesty International plaide pour une approche fondée sur les obligations en matière de droits humains et les responsabilités des entreprises qui garantissent la justice et l’obligation de rendre des comptes. »
Au Kenya, un seul juge préside une affaire, mais il est possible de demander à ce qu’une affaire soit entendue par au moins trois juges si elle soulève des questions constitutionnelles importantes.
Les requérants, représentés par le cabinet Nzili and Sumbi Advocates et soutenus par Foxglove [3], une organisation spécialisée dans la justice technologique, font valoir, entre autres motifs, que l’affaire peut être portée devant la Haute Cour kényane puisque le centre de modération vérifiant les contenus Facebook en provenance d’Éthiopie est située au Kenya.
Ils invoquent d’autres motifs appuyant l’examen de l’affaire par une juridiction kényane : Fisseha Tekle réside actuellement au Kenya et les problèmes de sécurité l’empêchent de retourner en Éthiopie, l’Institut Katiba est une organisation kényane et le pays compte une importante base d’utilisateurs Facebook.
Amnesty International figure parmi les sept organisations juridiques et de défense des droits humains impliquées en tant que parties intéressées dans cette affaire. Elle a soumis des réponses écrites à l’appui de la requête et s’opposant à la demande déposée par Meta pour contester la compétence.
Complément d’information
Abrham Meareg est le fils de Meareg Amare, professeur d’université à l’Université de Bahir Dar, dans le nord de l’Éthiopie, qui a été traqué et tué en novembre 2021, quelques semaines seulement après la publication sur Facebook de messages incitant à la haine et à la violence à son encontre.
Il affirmeque Facebook n’a répondu aux signalements concernant ces publications que huit jours après le meurtre du professeur Meareg Amare, alors que sa famille avait alerté l’entreprise pour la première fois plus de trois semaines auparavant.
Le deuxième plaignant, Fisseha Tekle, un employé d’Amnesty International, a subi une vague de haine en ligne en raison de son travail en faveur des droits humains en Éthiopie. Vivant désormais au Kenya, Fisseha Tekle craint pour sa sécurité, insistant sur l’impact transnational des contenus diffusés via les canaux de Facebook.
L’Institut Katiba, le troisième plaignant, porte l’affaire dans l’intérêt public au regard de la haine et de la violence virales incontrôlées sur la plateforme Facebook de Meta et des obligations constitutionnelles du Kenya.
La requête vise à empêcher que les algorithmes de Facebook ne recommandent ce type de contenus aux utilisateurs et utilisatrices, à modifier les pratiques de modération de contenu de Meta et à obliger Meta à créer un fonds d’indemnisation pour les victimesà hauteur de 200 milliards de shillings (1,4 milliard d’euros).
L’affaire traitera des questions de fond relatives à la mesure dans laquelle, le cas échéant, Meta est responsable des violations des droits humains et des souffrances humaines causées par le contenu promu sur Facebook.
D’après le rapport publié en octobre 2023 par Amnesty International sous le titre « Une condamnation à mort pour mon père » : les contributions de Meta aux violations des droits humains dans le nord de l’Éthiopie, Meta a contribué aux violations subies par la population tigréenne pendant le conflit qui a ébranlé le nord de l’Éthiopie il y a deux ans.