La discrimination systémique à l’aube de l’intelligence artificielle

Anne-Isabelle Cloutier, étudiante, Université McGill Katarina Daniels, avocate, bibliothécaire de liaison à la bibliothèque de droit Nahum Gelber, Université McGill En 2016, l’organisation ProPublica a révélé dans un rapport-choc qu’un programme d’intelligence artificielle utilisé par des tribunaux américains pour évaluer les risques de récidive de criminels était beaucoup plus enclin à étiqueter faussement les accusés noirs comme étant susceptibles de récidiver – leur attribuant à tort un risque de récidive presque deux fois plus élevé que les accusés blancs. Ironiquement, le programme Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) avait été adopté par des états américains dans le but de réduire l’influence des préjugés et stéréotypes racistes dans la prise de décision de juges et de fonctionnaires. Alors que les autorités américaines s’étaient tournées vers COMPAS pour contrer la discrimination systémique, ce logiciel s’est retrouvé à refléter et renforcir les préjugés et stéréotypes racistes à l’égard des personnes de… Lire la suite