Magistrature et intelligence artificielle : demain, qui jugera qui?
Annick Poitras, étudiante en droit, Université McGill
Katarina Daniels, avocate, bibliothécaire de liaison à la bibliothèque de droit Nahum Gelber, Université McGill
Alors que de plus en plus d’outils de recherche et d’analyse juridiques sont propulsés par l’intelligence artificielle, de nombreux juristes et chercheurs réfléchissent à l’avenir de la profession d’avocat. Mais jusqu’à présent, peu semblent s’intéresser aux répercussions de l’introduction de ces outils sur la magistrature, sur qui reposent l’équité et la justice.
Et pourtant, il y a matière à se questionner.
D’abord, ces outils de recherche, dont la puissance et la précision sont jusqu’à ce jour inégalées, servent-ils autant aux juges qu’aux avocats et parajuristes? Lorsqu’on navigue sur les sites des compagnies offrant de tels outils intelligents, par exemple Casetext, Blue J Legal, Knomos ou Ross Intelligence, les juges ne figurent pas explicitement dans les publics cibles, qui sont plutôt généralement les cabinets d’avocats, les juristes solos, les étudiants en droit, les chercheurs, etc.
Pourquoi les juges ne sont-ils pas interpellés? Sont-ils considérés au-dessus de la mêlée ou naturellement dotés d’un savoir juridique imperfectible? Serait-ce vu comme dévalorisant ou honteux d’assumer qu’un juge doive recourir à ces outils pour aiguiser et enrichir ses analyses juridiques?
Bien sûr, les juges peuvent s’appuyer sur le travail de leurs assistants, qui peuvent utiliser ces outils. D’ailleurs, c’est bel et bien le travail des avocats de préparer pour les juges des cahiers d’autorités, lesquels, en théorie, contiennent les autorités les plus pertinents aux faits en cause. Toutefois, plus et mieux que quiconque, les juges doivent aussi se documenter pour réviser jurisprudence, principes de droit, doctrine et recherche de preuves (e-discovery) afin de justifier leurs décisions et ainsi assurer la transparence du système judiciaire. Or, étrangement, les legaltechs ne les interpellent pas.
Une explication à ce constat réside peut-être dans le fait que le raisonnement des juges – dont les décisions sont des éléments cruciaux de la grande équation judiciaire – sont eux-mêmes désormais surveillés, scrutés, soupesés par certaines entreprises faisant dans la justice prédictive.
« Learn how judges think, write and rule – Find a judge », lit-on sur la page d’accueil de Ravel Law, de LexisNexis. Cet outil peut notamment miner des milliers de jugements dans le but de prédire comment certains juges, dûment identifiés, trancheront des litiges se basant sur l’historique de leurs décisions dans des cas similaires. À la lumière des décisions passées, l’algorithme formule conseils et recommandations pour les avocats qui devront plaider devant eux, identifiant même des termes ou expressions susceptibles de plaire à un juge donné.
Et ces fonctions, tout à fait licites pour le moment, fonctionnent. Par exemple, le professeur de droit américain Daniel Katz et ses collègues ont eu recours à l’apprentissage automatique pour créer un algorithme capable de prévoir de façon adéquate l’issue des décisions de la Cour suprême des États-Unis dans une proportion de 70 %. M. Katz poursuit aujourd’hui ses activités de développement de justice prédictive au sein de l’entreprise LexPredict.
Peut-être plus que toutes autres avancées découlant de l’introduction de l’intelligence artificielle dans les outils de recherche juridique, la justice prédictive, qui scrute, croise et tire des constats de l’ensemble des décisions d’un juge, ouvre une boîte de Pandore sur le plan de l’éthique de la pratique du droit, voire de l’évolution future du droit.
Premièrement, personne n’aime être sous surveillance – le mouvement croissant pour une meilleure protection de vie privée à l’ère numérique le confirme. On peut imaginer que les magistrats, des professionnels parmi les plus encadrés et respectés dans les sociétés occidentales, ne feront pas exception à la règle. Les juges ne sont que des êtres humains, après tout. Si l’intelligence artificielle permet maintenant de décortiquer leurs raisonnements, elle peut aussi laisser apparaître certains biais, aléas, préjugés, contradictions et imperfections. L’analyse de l’ensemble de leurs jugements permet aussi une comparaison avec leurs pairs, ce qui peut induire certaines pressions conscientes ou non, notamment de conformisme, pressions que l’indépendance judiciaire vise justement à éviter.
Ensuite, personne ne veut être manipulé. Or, les legaltechs font la promotion du fait que l’intelligence artificielle aide les avocats à « adopter les meilleures stratégies de contentieux » et à « élaborer des arguments gagnants » selon qu’ils plaident telle ou telle cause devant tel ou tel juge. N’est-ce pas là une certaine forme de manœuvre visant à exploiter des points faibles ou la subjectivité des juges? Il est légitime de se poser cette question, comme bien d’autres.
Quelles répercussions l’analyse prédictive, qui n’en est encore qu’à ses balbutiements, peut-elle avoir sur la réputation d’un juge qui, autrement, aurait été perçu comme toujours juste et équitable, voire irréprochable? Quels impacts sur le droit applicable, qui est le reflet de l’ensemble des décisions passées? Et quelles conséquences sur le développement des sociétés? En effet, même si la plupart des litiges se règlent hors cour, les décisions judiciaires donnent des repères sur ce qu’est un comportement acceptable et sur la nature et les limites de la loi.
Si, selon certains observateurs, la justice prédictive améliore la transparence des juges pour le citoyen, ce qui améliore la confiance dans le système de justice, ses possibles conséquences doivent être discutées et soupesées. C’est déjà le cas depuis quelques années en France, notamment dû au succès d’entreprises comme Case Law Analytics et Predictice, qui aident à estimer les chances de gagner un procès. La justice prédictive peut « présenter des risques importants : risques pour la liberté, risques de pression sur les magistrats, risques de décontextualisation des décisions, risques d’uniformisation des pratiques… », s’inquiétait déjà en 2017 Chantal Arens, première présidente de la cour d’appel de Paris.
Voilà certes matière à réflexion.
High-tech, innovation, IA, cybersécurité, ça vous parle? Le JBM organise LA plus importante conférence sur l’impact des TI et leur potentiel sur le droit au Canada.
Pour en savoir plus : https://ajbm.qc.ca/legl-it/a-propos/
——–
Les chroniques du CTI sont rédigées par un ou plusieurs membres du Comité Technologies de l’information (CTI) dans le but de susciter les discussions et de soulever les réflexions au sein de la communauté juridique à propos des nouvelles technologies et le droit. Les auteurs sont donc seuls responsables du contenu des articles et l’opinion qui y est véhiculée n’est pas celle du JBM, mais bien celle des auteurs. Si vous désirez rédiger une chronique, envoyez un courriel au cti@ajbm.qc.ca.
Mise à jour de la législation française ! : https://www.artificiallawyer.com/2019/06/04/france-bans-judge-analytics-5-years-in-prison-for-rule-breakers/