David Kaye
Rapporteur spécial des Nations Unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression
Comment l’intelligence artificielle (IA) peut-elle avoir un impact sur les droits humains ? Existe-t-il des menaces spécifiques à prendre en considération ?
David Kaye : Dans mon rapport, je me suis concentré sur les applications de l’IA qui génèrent des préoccupations : la diffusion de contenus et leur personnalisation, la modération de contenus et leur suppression, le profilage, la publicité et le ciblage. Partons de l’hypothèse qu’un gouvernement utilise des technologies automatisées à ses frontières pour identifier des individus nécessitant des contrôles supplémentaires. Ces technologies pourraient cibler de manière systématique un groupe ethnique, ce qui viole les principes anti-discriminatoires inscrits dans les droits humains. L’IA est un outil comme les autres : ses effets négatifs résultent des choix des hommes et des organisations. C’est pourquoi il est impératif d’en débattre.
Comment les États peuvent-ils influencer ces choix et gérer les conséquences de l’IA sur les droits humains ?
D.K. : Ces outils peuvent séduire les états démocratiques comme autoritaires dans une optique de contrôle social. Réaffirmer les droits humains est important mais insuffisant. Les outils développés avec l’IA sont devenus extrêmement difficiles à comprendre pour les populations extérieures à l’univers des technologies. L’État a donc un rôle crucial à jouer pour expliquer à chacun (de l’enfant au législateur) le fonctionnement de l’IA et ses finalités. Cela permettrait de démystifier les algorithmes d’aide à la décision et d’en rendre l’usage plus transparent. Nous devons garder en ligne de mire le principe d’une gouvernance démocratique et non technologique. Je pense aussi que les tribunaux seront fortement impliqués à un moment ou à un autre : des plaintes pour atteinte aux droits humains seront forcément déposées à l’encontre de certains outils automatisés (pour motif de censure, de discrimination, etc.)
Quelle est la responsabilité des sociétés technologiques comme les Gafa ou les opérateurs télécoms ? Doivent-ils être davantage surveillés ?
D.K. : Difficile de surveiller des technologies que vous ne comprenez pas ! L’opacité fait malheureusement partie de la « cuisine interne », du business model des GAFA, qui font du secret autour des outils propriétaires un atout sur le marché. Les gouvernements devraient mettre en place un cadre précis pour délimiter cette confidentialité et régler l’asymétrie actuelle pouvant exister entre les gouvernements et les entreprises à propos de l’information sur les usages de l’IA. Je crois que l’autorégulation est possible du côté des entreprises, à travers notamment une évaluation de l’impact de leurs outils sur les droits humains. Les acteurs orientés process comme les télécoms seront sans doute en meilleure position s’ils adoptent une réelle transparence et communiquent de manière continue avec leurs utilisateurs. Cela sera bénéfique à chacun.
On peut penser que le juste équilibre sera atteint grâce à la collaboration entre gouvernements, ONG, secteur privé et société civile. Le consensus est-il possible à une aussi grande échelle ?
D.K. : Je crois sincèrement que la recherche du consensus aidera à convenir d’une série de règles communes et donc à une plus grande transparence. Le facteur extérieur majeur reste le contentieux, nous devons donc rester modeste. Une déclaration de principes communs serait un bon début, car elle aurait une influence sur les tribunaux au moment de régler un litige. Cela constitue déjà une raison concrète d’agir de manière collective.