« La proposition de l’UE est loin de ce qu’il faudrait pour diminuer le vaste potentiel d’atteintes aux droits humains de technologies telles que les systèmes de reconnaissance faciale. Aux termes des conditions d’interdiction proposées, la police pourra toujours utiliser des logiciels de reconnaissance faciale a posteriori avec des caméras de surveillance pour suivre nos moindres mouvements et prélever des images sur des comptes de réseaux sociaux sans le consentement des personnes concernées », a déclaré Rasha Abdul Rahim, directrice d’Amnesty Tech.
« Même si la proposition interdit aux forces de l’ordre d’utiliser la reconnaissance faciale en temps réel dans les lieux publics en dehors de certaines circonstances limitées, des lacunes considérables subsistent en matière d’interdiction des utilisations privées de la reconnaissance faciale en direct et de nombreuses autres formes de télésurveillance biométrique.
« Elle autorise en outre toujours la reconnaissance en temps réel sur les personnes soupçonnées d’être entrées ou de résider de façon irrégulière sur le territoire d’un État membre. Il ne fait aucun doute que cette possibilité sera transformée en arme contre les migrant·e·s et réfugié·e·s. Le texte comporte aussi des dispositions permettant la police prédictive et l’utilisation de systèmes d’intelligence artificielle lors des contrôles aux frontières.
« La proposition de l’UE est loin de ce qu’il faudrait pour diminuer le vaste potentiel d’atteintes aux droits humains de technologies telles que les systèmes de reconnaissance faciale »
« Globalement, la proposition de cadre juridique ne va pas assez loin pour remédier au risque que l’intelligence artificielle ne renforce et n’exacerbe le racisme et la discrimination. Non seulement la recherche a démontré que les logiciels de reconnaissance faciale sont nettement moins précis sur les visages de personnes noires, mais le racisme systémique au sein des forces de l’ordre risque en outre d’entraîner une utilisation disproportionnée de ces technologies contre cette partie de la population et des arrestations injustifiées. De plus, les garanties et les obligations de transparence figurant dans la proposition ne protègeront pas véritablement le public.
« La proposition d’interdiction des outils de notation sociale, une technologie dystopique qui “classe” les personnes selon des critères réducteurs, tels que le genre, l’appartenance raciale, l’âge et le handicap, est une bonne mesure. Ces systèmes d’intelligence artificielle sont un affront à la dignité humaine et peuvent servir à cibler et exclure des catégories de population déjà marginalisées.
« Globalement, la proposition de cadre juridique ne va pas assez loin pour remédier au risque que l’intelligence artificielle ne renforce et n’exacerbe le racisme et la discrimination »
« Nous appelons l’UE à combler les nombreuses lacunes de cette réglementation qui laissent le champ libre à des atteintes aux droits humains et des pratiques discriminatoires généralisées, notamment en interdisant le recours à tous les systèmes de reconnaissance faciale utilisés pour la surveillance de masse.
La campagne Ban the Scan d’Amnesty International demande l’interdiction du développement, de la vente, de l’utilisation et de l’exportation des systèmes de reconnaissance faciale à des fins d’identification tant par les organismes d’État que par les acteurs du secteur privé. »
Complément d’information
Mercredi 21 avril, la Commission européenne a proposé un texte interdisant certaines utilisations des systèmes d’intelligence artificielle, notamment le recours par les forces de l’ordre à des outils d’identification biométrique à distance en temps réel, comme les technologies de reconnaissance faciale, dans les lieux publics.
Cependant, cette utilisation serait autorisée en cas de « nécessité stricte » à certaines fins précises et l’utilisation de systèmes d’identification biométrique dans d’autres lieux n’est pas interdite mais seulement considérée comme « risquée ».