Les entreprises doivent agir maintenant pour assurer un développement responsable de l’intelligence artificielle Eliza Campbell, équipe Recherche, Technologies et Inégalités, à Amnesty International États-Unis, et Michael Kleinman, directeur de l’Initiative Silicon Valley, à Amnesty International

caméras

Lorsque plus de 350 professionnels de l’intelligence artificielle affirment que « l’atténuation du risque d’extinction dû à l’intelligence artificielle devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires », la situation est doublement ironique.

Tout d’abord, les signataires de cette déclaration datant du 30 mai - parmi lesquels figurent les PDG de Google DeepMind et d’OpenAI -, qui adressent une mise en garde contre l’effondrement de la civilisation, sont les personnes et entreprises responsables de la création de cette technologie. Ensuite, ce sont précisément ces entreprises qui ont le pouvoir de garantir que l’intelligence artificielle profite réellement à l’humanité ou, au minimum, qu’elle ne lui porte pas préjudice.

La communauté de la défense des droits humains a élaboré un cadre efficace de diligence raisonnable en matière de droits humains, afin d’aider les entreprises à identifier, prévenir et atténuer les effets négatifs potentiels de leurs produits. Il est essentiel que les entreprises qui développent de nouveaux produits d’intelligence artificielle générative respectent ces cadres de diligence raisonnable en matière de droits humains dès maintenant, avant qu’il ne soit trop tard.

Qu’est-ce que l’Intelligence Artificielle ? Comment se décline-t-elle ?

L’intelligence artificielle (IA) générative est une expression vague, qui regroupe des algorithmes « créatifs » capables de générer eux-mêmes de nouveaux contenus, notamment des images, du texte, du son, de la vidéo et même du code informatique. Ces algorithmes sont entraînés sur d’énormes ensembles de données réelles, puis utilisent cet entraînement pour créer des résultats qui sont souvent impossibles à distinguer de « véritables » données. Il est alors souvent difficile, voire impossible, de déterminer si le contenu a été généré par une personne ou par un algorithme. À ce jour, les produits d’intelligence artificielle générative ont pris trois formes principales : des outils tels que ChatGPT qui génèrent du texte, des outils tels que Dall-E, Midjourney et Stable Diffusion qui créent des images, et des outils tels que Codex et Copilot qui produisent du code informatique.

L’essor soudain de nouveaux outils d’IA générative est sans précédent. L’agent conversationnel ChatGPT développé par OpenAI a atteint les 100 millions d’utilisateurs et utilisatrices en moins de deux mois. Ce chiffre dépasse de loin la croissance initiale de plateformes populaires comme TikTok, qui a mis neuf mois à atteindre ce nombre.

Tout au long de l’histoire, la technologie a aidé à faire progresser les droits humains, mais elle a aussi causé du tort, souvent de manière imprévisible. Quand les outils de recherche sur Internet, les réseaux sociaux et la technologie mobile ont été lancés, et lorsqu’ils ont été adoptés et sont devenus plus accessibles, un grand nombre des manières alarmantes dont ces technologies transformatrices ont elles-mêmes fini par causer et amplifier des violations des droits humains dans le monde étaient quasiment impossibles à prédire. Le rôle de Meta dans le nettoyage ethnique des Rohingyas au Myanmar en 2017, par exemple, ou l’utilisation de logiciels espions presque indétectables déployés pour transformer des téléphones portables en dispositifs de surveillance 24 heures sur 24, utilisés contre des journalistes et des défenseur·e·s des droits humains, sont tous deux des conséquences de l’introduction de technologies perturbatrices dont les impacts sociaux et politiques n’ont pas été sérieusement pris en compte.

Une approche de l’intelligence artificielle fondée sur le respect des droits humains : est-ce possible ?

À quoi pourrait donc ressembler une approche de l’intelligence artificielle générative fondée sur les droits humains et comment y parvenir ? Trois étapes préliminaires, basées sur des éléments de preuve et des exemples du passé récent, fournissent un cadre d’orientation initial possible.

Tout d’abord, afin de s’acquitter de leur responsabilité en matière de respect des droits humains, les entreprises qui développent des outils d’IA générative doivent immédiatement établir un cadre rigoureux de diligence raisonnable en matière de droits humains, conformément aux principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme. Cela inclut une diligence raisonnable anticipatoire et continue, afin d’identifier les préjudices réels et potentiels, la transparence concernant ces préjudices, ainsi que des mesures d’atténuation et correctives, le cas échéant.

Ensuite, les entreprises qui développent ces technologies doivent prendre des mesures immédiates pour engager le dialogue de manière proactive avec des universitaires, des acteurs de la société civile et des organisations communautaires, en particulier celles qui représentent des populations traditionnellement marginalisées. Bien que nous ne puissions pas prédire toutes les façons dont cette nouvelle technologie peut, maintenant ou à l’avenir, causer ou exacerber des préjudices, nous disposons de nombreux éléments prouvant que les communautés marginalisées sont les plus exposées au risque représenté par des conséquences négatives. Les versions initiales de ChatGPT étaient entachées de préjugés raciaux et sexistes, suggérant, par exemple, que les femmes autochtones « valent » moins que les autres races et sexes. La participation active de communautés marginalisées doit s’inscrire dans le processus de conception des produits et d’élaboration des lignes directrices, afin de mieux comprendre l’impact potentiel de ces nouveaux outils. Il ne peut pas s’agir d’une idée après coup, une fois que les entreprises ont déjà causé ou contribué à causer des dommages.

Un rôle actif des organisations de défendes des droits humains dans l’élaboration et l’évolution de l’Intelligence artificielle

Enfin, la communauté de protection des droits humains elle-même doit s’impliquer. Faute de réglementation visant à prévenir et atténuer les effets potentiellement dangereux de l’IA générative, les organisations de défense des droits humains doivent prendre l’initiative afin d’identifier les préjudices réels et potentiels. Cela signifie que les organisations de défense des droits humains doivent elles-mêmes contribuer à l’élaboration d’un corpus de connaissances approfondies sur ces outils et prendre la tête de recherches, d’actions de plaidoyer et de discussions qui anticipent le pouvoir de transformation de l’IA générative.

Faire preuve de complaisance face à ce moment révolutionnaire n’est pas envisageable - pas plus, d’ailleurs, que faire preuve de cynisme. Nous avons tous et toutes intérêt à ce que cette nouvelle technologie puissante soit utilisée dans le but de servir l’humanité. La mise en œuvre d’une approche fondée sur les droits humains pour identifier les dommages et y répondre est une première étape cruciale dans ce processus.

Article publié sur Al Jazeera [1], écrit par : Eliza Campbell, équipe Recherche, Technologies et Inégalités, à Amnesty International États-Unis, et Michael Kleinman, directeur de l’Initiative Silicon Valley, à Amnesty International

Toutes les infos
Toutes les actions

L’avortement est un droit. Parlementaires, changez la loi !

L’avortement est un droit humain et un soin de santé essentiel pour toute personne pouvant être enceinte. Ceci sonne comme une évidence ? Et bien, ce n’est pourtant pas encore une réalité en (…)

2024 - Amnesty International Belgique N° BCE 0418 308 144 - Crédits - Charte vie privée
Made by Spade + Nursit