par
Katarina Daniels
Articles du même auteur
et
Anne-Isabelle Cloutier
Articles du même auteur
15 Mar 2019

La discrimination systémique à l’aube de l’intelligence artificielle

Par Katarina Daniels, avocate et Anne-Isabelle Cloutier, étudiante

Anne-Isabelle Cloutier, étudiante, Université McGill

Katarina Daniels, avocate, bibliothécaire de liaison à la bibliothèque de droit Nahum
Gelber, Université McGill

En 2016, l’organisation ProPublica a révélé dans un rapport-choc qu’un programme d’intelligence artificielle utilisé par des tribunaux américains pour évaluer les risques de récidive de criminels était beaucoup plus enclin à étiqueter faussement les accusés noirs comme étant susceptibles de récidiver – leur attribuant à tort un risque de récidive presque deux fois plus élevé que les accusés blancs. Ironiquement, le programme Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) avait été adopté par des états américains dans le but de réduire l’influence des préjugés et stéréotypes racistes dans la prise de décision de juges et de fonctionnaires. Alors que les autorités américaines s’étaient tournées vers COMPAS pour contrer la discrimination systémique, ce logiciel s’est retrouvé à refléter et renforcir les préjugés et stéréotypes racistes à l’égard des personnes de couleur noire.
Ce rapport a mis en lumière comment, sous l’apparence d’une objectivité technologique, l’intelligence artificielle peut, dans les faits, causer plus de tort que de bien à des communautés raciales qui doivent déjà faire face au quotidien à diverses formes insidieuses de discrimination systémique. En effet, tel qu’indiqué dans un rapport du Brookfield Institute, lorsque les algorithmes d’un programme d’intelligence artificielle s’appuient sur des ensembles de données non représentatives, excluent des informations importantes et contiennent des préjugés socio-économiques existants en raison de la façon dont les données ont été recueillies ou étiquetées par l’humain, il est possible que le recours à cette technologie accroisse plutôt qu’il ne diminue l’oppression et la marginalisation expérimentées par les groupes raciaux victimes de discrimination systémique dans le monde réel.

Si le rapport américain publié en 2016 a démontré l’importance d’avoir recours avec précaution à l’intelligence artificielle en raison du risque de biais à l’égard des communautés racisées, cela ne veut pas dire pour autant que la lutte contre la discrimination systémique au sein du système de justice canadien et l’intégration de l’intelligence artificielle à ce système ne peuvent aller de pair. En effet, l’intelligence artificielle peut constituer un outil fort utile pour identifier avec précision les manifestations de discrimination systémique au sein du système de justice et pour soutenir l’élaboration de politiques publiques ciblées et efficaces afin d’y répondre.

Des technologies comme Ravel Law permettent d’analyser l’ensemble des jugements rendus par un juge et d’en dégager des tendances (e.g. décisions les plus citées, façon de juger dans un cas donné, etc.) – tâche qui, sans l’assistance de l’intelligence artificielle, serait non seulement beaucoup trop laborieuse à accomplir par un avocat en préparation pour un procès, mais également beaucoup trop coûteuse pour un client en termes d’heures facturables. L’objectif premier de ce type d’analyse est de permettre aux avocats d’adopter, en fonction du juge qui entendra leur cause, les meilleures stratégies pour leur client. Nous sommes d’avis que de tels logiciels puissent éventuellement servir à évaluer si des districts judiciaires ou certains juges semblent être influencés par des stéréotypes et préjugés raciaux à l’égard, par exemple, d’individus noirs ou autochtones.

Dans un texte publié en 2014, le Professeur Akwasi Owusu-Bempah de l’Université de Toronto met en évidence les lacunes en matière de collecte et de diffusion de données sur la justice pénale en fonction de la race des accusés au Canada. Il affirme que le peu d’études menées sur le sujet tendent néanmoins à démontrer qu’il existe dans le système de justice canadien de la discrimination systémique à l’égard des personnes noires et autochtones, et ce, notamment par les tribunaux en matières criminelles. Par exemple, il semblerait que les délinquants autochtones soient plus susceptibles que les délinquants non-autochtones d’être condamnés à des peines d’incarcération pour des infractions relativement mineures. De plus, il semblerait que les meurtriers autochtones reçoivent des peines plus clémentes que les meurtriers blancs et que cette différence de traitement soit liée à la race de la victime. Bien qu’il soit impératif de mener davantage de recherche sur le phénomène dans le contexte canadien, il semble plausible selon l’auteur que, similairement à ce qui est observé aux États-Unis, les individus autochtones reconnus coupables d’homicide reçoivent des peines plus clémentes lorsque leur victime appartient à une minorité raciale – ce qui est habituellement le cas – que lorsqu’elle est blanche.

Avoir recours à des logiciels d’intelligence artificielle similaires à Ravel Law permettrait de produire – à une fraction des ressources financières et humaines que cela demande présentement – les données nécessaires à l’étude de ces enjeux à l’intersection des races, de la criminologie et de la justice pénale. Sans que les tendances identifiées par un tel logiciel permettent de conclure avec certitude à l’existence de discrimination dans un cas donné, un tel logiciel permettrait potentiellement de cerner certains tribunaux ou juges dont les décisions semblent être biaisées par des stéréotypes et des préjugés à l’endroit de groupes racialisés. Des processus de suivi ciblés pourraient alors être mis en place par les autorités compétentes pour vérifier s’il y a ou non présence de discrimination.

Dans de telles circonstances, l’intelligence artificielle servirait à lutter contre la discrimination systémique au sein de notre système judiciaire. Elle permettrait d’assurer une meilleure protection devant la loi aux individus issus de groupes racialisés et, ultimement, un plus grand respect de la primauté du droit. Une telle utilisation de l’intelligence artificielle augmenterait la transparence du processus décisionnel au sein du système judiciaire tout en accroissant l’imputabilité des juges qui, contrairement à ce que certains peuvent croire, ne sont pas toujours des arbitres objectifs de la vérité, mais bien des êtres humains pouvant être influencés par leurs expériences et leurs préjugés.

L’intelligence artificielle vous intéresse ? Le 22 mars prochain, joignez-vous à plus de 300 jeunes professionnels partageant votre passion pour le droit et la technologie. Cliquez ici pour vous inscrire à la 13e édition de la Conférence Legal.IT, la plus importante conférence au Canada sur l’impact des TI et leur potentiel sur le droit, organisée par le Jeune Barreau de Montréal. 

——————

Les chroniques du CTI sont rédigées par un ou plusieurs membres du Comité Technologies de l’information (CTI)
dans le but de susciter les discussions et de soulever les réflexions
au sein de la communauté juridique à propos des nouvelles technologies
et le droit. Les auteurs sont donc seuls responsables du contenu des
articles et l’opinion qui y est véhiculée n’est pas celle du JBM, mais
bien celle des auteurs. Si vous désirez rédiger une chronique, envoyez
un courriel au cti@ajbm.qc.ca.

Pour vous inscrire à la Conférence Legal.IT, cliquer ici. 

Commentaires (0)

L’équipe du Blogue vous encourage à partager avec nous et nos lecteurs vos commentaires et impressions afin d’alimenter les discussions sur le Blogue. Par ailleurs, prenez note du fait qu’aucun commentaire ne sera publié avant d’avoir été approuvé par un modérateur et que l’équipe du Blogue se réserve l’entière discrétion de ne pas publier tout commentaire jugé inapproprié.

Laisser un commentaire