Les retraits de vidéos mettent en péril les personnes qui les fournissent par Scott Edwards, conseiller de l’équipe de réaction aux crises d’Amnesty International

Le 20 mars 2017, une séquence troublante de 18 secondes a été mise en ligne sur YouTube, parmi le demi-million d’heures de vidéos téléchargées ce jour-là. Elle montrait l’exécution de trois personnes, ligotées face à un mur, par un homme armé, dans une rue poussiéreuse se trouvant supposément à Benghazi (Libye).

Bien que réellement choquante, la courte vidéo ressemblait à beaucoup d’autres diffusées depuis des zones de conflit du monde entier.

Le 9 juin, cependant, une deuxième vidéo du même homme armé supervisant semble-t-il l’exécution de quatre captifs à genoux a été rendue publique. Un mois plus tard, quand une autre vidéo [1] montrant l’exécution de 20 prisonniers a fait son apparition, l’homme armé — présumé être Mahmoud al-Werfelli — était encore visible, dirigeant les opérations d’une main de fer.

Le mandat d’arrêt émis en août par la Cour pénale internationale contre Mahmoud al-Werfelli pour crime de guerre pour les homicides commis en Libye a marqué un tournant dans les enquêtes menées à partir d’informations disponibles en libre accès. Pour celles et ceux d’entre nous qui croient que le monde numérique ouvre des pistes prometteuses en faveur de l’application de la justice et de l’obligation de rendre des comptes, cet événement est arrivé à point nommé pour confirmer que les contenus trouvés sur Facebook et YouTube constituent une bonne partie des éléments admis par la Cour.
Néanmoins, ce modus operandi relativement nouveau pour rendre justice risque de tourner court.

La prolifération des contenus diffusés sur différentes plateformes numériques ces dernières années donne aux enquêteurs spécialisés dans les droits humains des compétences inédites pour mener des investigations sur les violations graves des libertés fondamentales, comme les crimes de guerre probables dont attestent ces vidéos. La prise en compte de ce matériel dans les enquêtes se heurte toutefois à des difficultés de taille. Les séquences sont souvent associées à des moments, des lieux ou des personnes erronés. Tenter de remonter la chaîne de responsabilité des contenus donne rarement des résultats car elle s’arrête à la plateforme sur laquelle le matériel a été mis en ligne. Enfin, ces plateformes servent non seulement de banques de données, mais aussi de moyens de communication pour promouvoir un récit, parfois dans le but de diffuser de fausses informations, d’inciter à la haine ou de susciter de la violence.

Depuis des années, les gouvernements et le public somment les entreprises telles que Facebook, Google et Twitter de lutter contre les discours de haine, l’incitation à la violence et le prosélytisme des groupes extrémistes. Pour ce faire, ces plateformes comptent sur une combinaison d’algorithmes et sur le discernement humain afin de signaler et de supprimer des contenus, mais cette méthode a tendance à donner des « faux négatifs » ou des « faux positifs » parmi les résultats — trop ou trop peu de vidéos sont signalées, selon une norme fondée sur les valeurs.

En juin, Google a annoncé [2] quatre mesures visant à lutter contre le terrorisme en ligne, notamment une détection plus rigoureuse et une suppression plus rapide des contenus liés au terrorisme et à l’extrémisme violent. Le signalement et la suppression rapides de contenus semblent bien fonctionner. Nous le constatons malheureusement à cause de « faux positifs » aux effets dévastateurs : des contenus utilisés ou mis en ligne par des journalistes, des enquêteurs et des organisations conservant du matériel provenant de zones traversant des conflits ou des crises en matière de droits humains sont supprimés alors qu’ils ont un rôle à jouer dans l’information, dans les éventuelles poursuites judiciaires à venir et dans les archives de l’histoire.

De même qu’une victime ou un témoin peuvent être réduits au silence, des informations cruciales pour le bon déroulement d’une enquête peuvent disparaître des plateformes numériques avant que des autorités compétentes aient une chance de les archiver.

Les enquêteurs sont déjà conscients de ce risque. Depuis la réorganisation du dispositif de signalement de YouTube, les preuves vidéo du meurtre présumé des quatre prisonniers à genoux par Mahmoud al-Werfelli ont été rapidement supprimées du site, de même que des milliers de séquences présentant des informations sur le conflit en Syrie. Non sans efforts, des personnes qui veillent sur les contenus ont contesté les suppressions auprès de YouTube, qui a rétabli certaines des chaînes et des vidéos.

Pourtant, sur tout le matériel mis en ligne par des défenseurs des droits humains ou par des personnes voulant partager des éléments de preuve — susceptibles d’être repris par les procureurs pour étayer leurs dossiers — il est impossible de savoir quelle quantité a été ou sera perdue. Bien que YouTube puisse stocker le matériel supprimé sur ses serveurs, l’entreprise ne peut connaître la valeur de son contenu, en tant qu’élément de preuve ou vis-à-vis de l’intérêt public, puisqu’il reste enfoui dans le purgatoire numérique, occulté aux yeux des enquêteurs et des chercheurs à même de juger de leur utilité. Étant donné que les seules personnes à pouvoir contester ces suppressions sont les propriétaires initiaux des contenus ou celles qui veillent dessus, ces personnes sont profondément désavantagées et se mettent même en grand danger à titre personnel si elles essaient de maintenir un accès à leur contenu signalé, en fournissant d’autres informations ou en prenant le risque d’enregistrer d’autres raccourcis.

Les personnes qui diffusent les contenus les plus précieux pour faire respecter la justice et l’obligation de rendre des comptes — civils dans des zones assiégées, journalistes menacés de mort — sont souvent celles pour qui la suppression est la plus difficile à contester.

Assurer la conservation des éléments de preuve utilisables dans les enquêtes sur les crimes de guerre n’est pas l’affaire des plateformes de contenus numériques, pas plus que combattre le terrorisme et les discours de haine. Néanmoins, ces fonctions sont des obligations de ces entreprises envers le bien commun.

Alors que les dispositifs de suppression de contenus de YouTube ont récemment fait la une [3] pour avoir supprimé par erreur des vidéos d’intérêt public, d’autres plateformes subissent les mêmes pressions pour atténuer la portée de certains types de contenus dégradants ou extrémistes.

Comme l’espace numérique met en jeu l’intérêt public et comme ses dispositifs sont adaptés pour mieux le représenter, il est essentiel de limiter le risque que le dysfonctionnement reconnu [4] de YouTube a mis en évidence. Le nouveau système de signalement répond certes à un besoin, mais il a été mis en œuvre sans que la société civile ne soit consultée comme il se doit, alors qu’elle dépend désormais de plateformes telles que YouTube pour échanger des informations et y accéder, parfois au prix de risques considérables pour les personnes. L’entreprise a déclaré [5] pour sa part qu’elle collaborera avec des ONG pour établir une distinction entre la propagande violente et le matériel d’information digne d’intérêt. Ces consultations pourront aboutir à des lignes directrices à l’attention d’analystes humains sur l’utilisation légitime du matériel qui, s’il semble à première vue faire l’apologie de la violence et de la haine, possède un intérêt public.

La tension entre le désir de préserver la liberté de l’information et le besoin d’empêcher l’utilisation abusive de canaux de communication par des groupes violents ou inspirés par la haine ne peut être résolue facilement par une consultation. Cependant, une meilleure sensibilisation des enquêteurs dans le domaine des droits humains peut limiter les dommages et la perte possible d’éléments de preuve. Alors que d’autres plateformes entreprennent de relever ces défis, une consultation mineure permettra de franchir un cap majeur vers la garantie que le paysage numérique du futur, s’il ne s’annonce pas rose, sera adapté à la quête en faveur de la justice et de l’obligation de rendre des comptes.

Toutes les infos
Toutes les actions
2024 - Amnesty International Belgique N° BCE 0418 308 144 - Crédits - Charte vie privée
Made by Spade + Nursit