Mais il ne s’agit là que de l’un des derniers épisodes d’un débat vieux comme Internet : qui peut décider des limites de la liberté d’expression en ligne, et comment procéder ?
Il est déjà loin le temps où Facebook, YouTube et Twitter étaient salués pour leur rôle de catalyseurs pour la liberté de parole et la démocratie [1]. Ces plateformes ont indiscutablement participé à la démocratisation de la sphère publique. De simples particuliers peuvent attirer des dizaines de milliers d’abonnés et obtenir des millions de vues sans avoir à passer par des médias traditionnels, des agences de presse ou des gouvernements. Les militants peuvent s’organiser, diffuser des informations et mobiliser les gens plus facilement que jamais.
Le fait que de nombreux pays contrôlent très strictement les réseaux sociaux, ou bloquent même leur accès, démontre l’immense pouvoir de ces outils. Il ne faut pas perdre de vue ces aspects positifs lorsque l’on cherche à empêcher les dérives que constituent la diffusion et la prolifération rapide sur l’Internet de violences et de messages de haine, comme le montre le Rapport 2017/18 d’Amnesty International sur la situation des droits humains dans le monde.
En 2017, dans le monde entier, des représentants politiques ont utilisé les réseaux sociaux pour propager des idées haineuses. Ceux qui détiennent le pouvoir se mettent eux aussi à utiliser les réseaux sociaux, qui représentent pour eux un nouveau moyen de répression. Ainsi, en Bulgarie, des représentants politiques ont diffusé des déclarations discriminatoires et xénophobes visant les personnes LGBTI et les Roms ; au Myanmar, de hauts responsables de l’armée et des porte-parole du gouvernement ont partagé sur Facebook des messages contre les Rohingyas ; et aux Philippines, les autorités ont utilisé des réseaux de trolls contre ceux qui les critiquent.
Ce problème soulève de nombreuses questions. Dans quelle mesure des réseaux sociaux tels que Facebook et Twitter – qui n’ont réagi que tardivement à l’avalanche de messages de haine et de « fausses nouvelles » – sont-ils en faute ? Les gouvernements doivent-ils prendre des mesures ? Que faut-il faire pour préserver les bénéfices apportés par les réseaux sociaux tout en contrant leurs effets les plus néfastes ?
Il n’existe pas de réponse simple à ces questions. Le droit à la liberté d’expression recouvre des idées que de nombreuses personnes peuvent trouver détestables. Il existe de nombreux cas où des propos haineux – racistes, sexistes, xénophobes ou autres – ne sont pas interdits au titre du droit relatif aux droits humains.
Or, le droit à la liberté d’expression implique toujours des responsabilités, et dans certaines circonstances – telles que l’incitation à la violence ou la diffusion d’images de violences sexuelles sur enfant –, cette liberté peut être légitimement restreinte en vertu du droit relatif aux droits humains. La complexité de ce problème découle du fait que la définition de ce qui est « détestable » est toujours subjective : ce qui relève pour certains de la liberté de parole peut être considéré par d’autres comme une violente diatribe.
Il faut aussi tenir compte du fait que le droit de dire des choses auxquelles des tiers – y compris des personnes en position de pouvoir – vont farouchement s’opposer représente l’un des piliers d’une société libre et ouverte. Sans cela, il n’y aurait pas de presse libre ni de possibilité de demander des comptes aux gouvernements.
Malgré toutes les dérives observées, les réseaux sociaux tels que Facebook et Twitter offrent un espace d’expression et un accès à l’information beaucoup plus libres que tout ce qui était à notre disposition par le passé. Mais cet espace est fragile. Ainsi, les recherches menées par Amnesty ont montré que les abus et les violences à l’égard des femmes diffusés en ligne peuvent avoir un impact psychologique négatif et réduire au silence les personnes visées.
Quelle est donc la solution ? Trois types de mesures peuvent être mises en œuvre pour contrer les messages de haine sur les réseaux sociaux et sur Internet de manière générale : le respect de la loi, la modération des contenus et l’éducation.
Les États doivent mettre en place des lois interdisant les appels à la haine et engager des poursuites uniquement dans les cas prévus de manière précise par le droit relatif aux droits humains. Il s’agit de manière spécifique des cas où il existe clairement une intention d’inciter à la discrimination, à l’hostilité ou à des violences contre un groupe précis.
On a toutefois pu observer que de nombreux gouvernements menacent les entreprises de réseaux sociaux avec une règlementation très stricte sur la responsabilité des intermédiaires, ce qui signifie que ces entreprises peuvent être tenues responsables du contenu publié sur leurs plateformes. Ce qui pose problème, c’est que la responsabilité des intermédiaires peut facilement être utilisée pour restreindre indument la liberté d’expression et contraindre ces entreprises à censurer de manière excessive les utilisateurs parce qu’elles craignent des poursuites judiciaires.
La modération du contenu mise en place par ces entreprises représente un élément important de la solution : il n’est pas nécessaire d’avoir des lois, et cela ne peut donc pas mener à des restrictions injustifiées de la liberté d’expression. Toutes ces plateformes ont prévu un règlement de la communauté et des règles de conduite pour gérer les problèmes liés aux appels à la haine et à la discrimination, des garde-fous qui fonctionnent bien à condition qu’ils soient appliqués de façon cohérente et uniforme et sans que cela porte atteinte au droit relatif aux droits humains. Cela se fait en plusieurs étapes :
Tout d’abord, il faut repérer le problème. Facebook et, très tardivement, Twitter, ont finalement accepté d’assumer leurs responsabilités et de faire face à ces problèmes, et ils ne peuvent plus prétendre n’être que de simples « canaux ».
Ensuite, il faut consacrer des ressources suffisantes à la résolution de ces problèmes. Cela passe par l’amélioration des outils mis à la disposition des utilisateurs pour qu’ils signalent et bloquent les contenus abusifs, le renforcement des ressources mobilisées pour vérifier les contenus signalés et décider de leur retrait ou non, la formation adéquate des modérateurs, et des mesures permettant de repérer et de bloquer les réseaux de trolls.
Il faut aussi pratiquer la transparence au sujet des niveaux d’abus, des types d’abus et des mesures engagées, par exemple en publiant régulièrement des rapports sur le nombre de contenus signalés, leur type, etc.
Pour finir, il y a l’éducation. Il s’agit peut-être du point le plus important. En effet, l’application des lois et la modération des contenus permettent de gérer les symptômes de l’usage abusif des réseaux sociaux et des appels à la haine en ligne, mais elles ne s’attaquent pas aux causes profondes de ces abus.
Qu’il s’agisse de programmes éducatifs pour les écoles ou de campagnes sur les réseaux sociaux, le seul moyen efficace à long terme pour restreindre le racisme, le sexisme et les discours haineux, c’est d’aider les gens à mieux comprendre les conséquences de tels agissements.
En fin de compte, pour que l’Internet tienne ses promesses, il nous appartient à tous de combattre le racisme et la discrimination autour de nous.