Bienvenue

Bienvenue sur le Blogue du CRL du Jeune Barreau de Montréal (JBM)! Ce blogue est dédié à la diffusion de contenu juridique pour tous les avocats du Québec et plus spécifiquement pour les membres du JBM. Le contenu est offert grâce à une communauté d'avocats bénévoles impliqués sur le Comité recherche et législation du JBM. Si vous désirez devenir auteur ou contribuer au succès de ce blogue, faites-nous part de votre intérêt.

lundi 15 octobre 2018

Intelligence artificielle et Justice canadienne, une conjonction bénéfique?



Par Soleïca Monnier, Étudiante, Université de Montréal
Erwan Jonchères, Avocat en droit des technologies chez Laboratoire de cyberjustice



 
[L’IA] est carrément un changement de civilisation. On peut comparer ça à de grands bonds technologiques, comme l’invention de l’imprimerie ou de l’agriculture, qui ont donné lieu à une explosion de connaissances et ont profondément changé la relation entre les humains.[1]

 
L’intelligence artificielle (IA) est une technologique informatique complexe dont seuls certains professionnels saisissent les tenants et aboutissants. Grâce à différents pôles de recherches à l’instar du MILA et d’IVADO, Montréal en est devenue une ville précurseur. Nous vous proposons donc de vous familiariser avec les enjeux posés par les interactions grandissantes entre l’IA et la justice au Canada et, plus exactement, sur le potentiel et les défis que ces dernières portent pour les institutions.


 

I.              Réaliser le potentiel des systèmes experts

Des modèles sophistiqués, lorsque nourris par des mégadonnées (big data)[2] et alimentés par une puissance de calcul considérable via l’infonuagique (cloud computing)[3], parviennent désormais à produire des résultats spectaculaires quant à la reproduction d’aptitudes traditionnellement « humaines ». Sophia, rendue célèbre pour être la première IA à obtenir la citoyenneté saoudienne, est par exemple une véritable icône médiatique. Toutefois, ce type de médiatisation des avancées récentes en IA tend à effrayer le public et n’est pas représentatif du potentiel réel qu’il porte pour le droit occidental.

Il convient d’abord de souligner les distinctions fondamentales entre l’IA générale et le système expert.

(   1)  D’une part, l’IA générale (ou forte) suppose une modélisation du fonctionnement de la pensée humaine, puisqu’elle ne vise pas la simulation d’une, mais bien de l’ensemble des facultés cognitives humaines. Elle n’existe pas encore en 2018. 

(   2)  Au contraire, le système expert ne simule le raisonnement et la prise de décision d’un humain que dans un domaine d’expertise donné. Cette utilisation de l’IA est dite « faible », et c’est cette dernière qui est présentement étudiée en droit.

Le Canada connaît une crise d’accès à la justice liée aux coûts, aux délais et à la complexité des procédures judiciaires et extrajudiciaires, évaluée à près de 746 millions de dollars par an[4]. Or le recours à des systèmes experts capables d’automatiser certaines tâches juridiques s’avère être une solution à fort potentiel pour répondre à ces défis — moteurs de recherche, assistants à la rédaction et autres technologies performantes. En effet, ces outils promettent une accessibilité et une adaptabilité accrue pour les services juridiques gouvernementaux. Par exemple, l’IA permet la mise sur pied d’agents conversationnels (chatbots) spécialisés qui synthétisent l’information juridique disponible et l’adaptent à la situation factuelle de leur interlocuteur en temps réel. Ces systèmes ont par ailleurs la capacité de calculer les chances de succès d’une éventuelle judiciarisation du conflit, ainsi que d’offrir une sélection d’arrêts similaires au cas analysé. Les gains en temps et en argent, ainsi que les bénéfices en matière de vulgarisation et de personnalisation du contenu juridique sont ici considérables tant pour le justiciable que pour l’État.

La ministre de la Justice, Stéphanie Vallée, a annoncé mi 2018 la mise à disposition de 500 millions de dollars pour moderniser la justice québécoise d’ici 2022[5]. Nous sommes persuadés que l’État évaluera les avantages et inconvénients de l’IA aux fins de servir la justice.

II. Réaliser certes, mais à quel prix ?

L’exploration sur le plan juridique doit toutefois s’accompagner d’un certain degré de prudence. Les gouvernements, lorsqu’ils développent et mettent en œuvre de tels outils en droit, doivent s’assurer d’utiliser des bases de données objectives et exemptes de tout biais. De plus, il est impératif de veiller à la surveillance qualifiée, intègre et continue des algorithmes qui traitent ces données[6].

L’essai du logiciel Compas aux États-Unis en est un exemple frappant. Ce dernier servait notamment à calculer les risques de récidives des détenus à des fins d’aide à la décision dans certains comtés américains. Les résultats obtenus par quatre journalistes en testant l’algorithme ont cependant fait apparaître la couleur de peau comme facteur déterminant dans les conclusions du logiciel, et ce, à l’encontre des Noirs[7]. Les données utilisées étaient en l’espèce porteuses de stéréotypes véhiculés dans la société américaine, et leur traitement algorithmique laissait apparaître des biais ethniques graves[8].

En sus, les algorithmes créés par le secteur privé sont des boîtes noires qui restent jalousement gardées au nom du secret des affaires. Les entreprises n’acceptent pas de divulguer les modalités de façonnement de ces algorithmes ainsi que la provenance des données utilisées. En d’autres termes, le public n’a pas accès de facto aux paramètres décisionnels utilisés et ne peut retracer le raisonnement suivi. Le scandale de 2016 au sujet de l’opacité de la plateforme Admission post-bac a conduit à l’adoption du principe de l’ouverture par défaut des algorithmes publics en France[9]. À l’avenir, et sur demande, l’administration française devra fournir des explications sur les règles sous-jacentes de toute décision fondée sur un traitement algorithmique, ainsi que sur les principales caractéristiques de ce dernier.

Tels que les exemples des États-Unis ou de la France le révèlent, l’incorporation de ces outils dans notre système de justice doit se faire progressivement afin d’anticiper les embûches rencontrées par le passé, et particulièrement en matière d’aide à la décision. Le Canada disposant d’un écosystème d’IA remarquable et de chercheurs de renommée mondiale, il serait à propos de se pourvoir d’un cadre législatif adapté afin de promouvoir l’innovation tout en offrant des garanties aux citoyens.

Si vous souhaitez en apprendre davantage sur le thème de l’IA et du droit, nous vous donnons rendez-vous dans les parutions de L’ExtraJudiciaire de décembre 2018 et de février 2019.



[1] D’après une conversation entre Yoshua Bengio et Philippe Couillard dans Alec CASTONGUAY, « Prêts pour lintelligence artificielle? », Lactualité, mars 2018, 32-41, à la page 35.
[2] Le terme désigne « des ensembles de données devenus si volumineux qu'ils dépassent l'intuition et les capacités humaines d'analyse et même celles des outils informatiques classiques de gestion de base de données ou de l'information », dans CEA, « Conférence au cœur du Big data », en ligne : « http://www.cea.fr/multimedia/Pages/videos/culture-scientifique/technologies/conference-big-data.aspx » (consulté le 08 octobre 2018).
[3] « Selon le NIST, l'infonuagique (ou informatique en nuage) est un modèle d'accès au réseau habilitant, pratique et sur demande comprenant un bassin partagé de ressources informatiques configurables qui peut rapidement être activé et désactivé en réduisant au minimum les efforts de gestion ou les contacts avec le prestataire de services. », dans Nicolas Vermeys et Sarith Mizrahi, « Étude sur les incidences juridiques de l’utilisation de l’infonuagique par le gouvernement du Québec », Lab. Cyberjustice 2014, 5, en ligne : <https://www.cyberjustice.ca/publications/etude-sur-les-incidences-juridiques-de-lutilisation-de-linfonuagique-par-le-gouvernement-du-quebec/> (consulté le 6 octobre 2018).
[4] « Everyday Legal Problems and the cost of Justice in Canada », Forum canadien de la justice civile, 2015, en ligne : « http://www.cfcj-fcjc.org/sites/default/files//CostofJustice_overivewfactsheet%20.pdf » (consulté le 25 septembre 2018).
[6] Pour en savoir plus, consulter Adrien Basdevant et Jean-Pierre Mignard, L’empire des données: essai sur la société, les algorithmes et la loi, Paris, Don Quichotte éditions, 2018.
[7] Julia ANGWIN, Jeff LARSON, Surya MATTU et Lauren KIRCHNER, « There’s software used across the country to predict future criminals. And it’s biased against blacks. », en ligne : « https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing » (consulté le 11 septembre 2018).
[8] Id.
[9] Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique (France).

Aucun commentaire:

Publier un commentaire

L'équipe du Blogue vous encourage à partager avec nous et nos lecteurs vos commentaires et impressions afin d'alimenter les discussions sur le Blogue. Par ailleurs, prenez note du fait qu'aucun commentaire ne sera publié avant d'avoir été approuvé par un modérateur et que l'équipe du Blogue se réserve l'entière discrétion de ne pas publier tout commentaire jugé inapproprié.