Intelligence artificielle et Justice canadienne, une conjonction bénéfique?
Par Erwan Jonchères, Avocat et Soleïca Monnier, avocate, Fasken
Par Soleïca Monnier, Étudiante,
Université de Montréal
Erwan Jonchères, Avocat en droit des
technologies chez Laboratoire de cyberjustice
[L’IA] est carrément un changement de
civilisation. On peut comparer ça à de grands bonds technologiques, comme
l’invention de l’imprimerie ou de l’agriculture, qui ont donné lieu à une
explosion de connaissances et ont profondément changé la relation entre les
humains. [1]
L’intelligence artificielle (IA) est une technologique informatique
complexe dont seuls certains professionnels saisissent les tenants et
aboutissants. Grâce à différents pôles de recherches à l’instar du MILA et d’IVADO, Montréal en est devenue une ville précurseur.
Nous vous proposons donc de vous familiariser avec les enjeux posés par les
interactions grandissantes entre l’IA et la justice au Canada et, plus
exactement, sur le potentiel et les défis que ces dernières portent pour les
institutions.
I.
Réaliser le potentiel des systèmes experts
Des modèles sophistiqués, lorsque nourris par des mégadonnées (big data)[2]
et alimentés par une puissance de calcul considérable via l’infonuagique (cloud computing)[3],
parviennent désormais à produire des résultats spectaculaires quant à la
reproduction d’aptitudes traditionnellement « humaines ». Sophia, rendue
célèbre pour être la première IA à obtenir la citoyenneté saoudienne, est par
exemple une véritable icône médiatique. Toutefois, ce type de médiatisation des
avancées récentes en IA tend à effrayer le public et n’est pas représentatif du
potentiel réel qu’il porte pour le droit occidental.
Il convient d’abord de souligner les distinctions fondamentales entre
l’IA générale et le système expert.
( 1)
D’une
part, l’IA générale (ou forte) suppose une modélisation du fonctionnement de la
pensée humaine, puisqu’elle ne vise pas la simulation d’une, mais bien de l’ensemble des
facultés cognitives humaines. Elle n’existe pas encore en 2018.
( 2)
Au
contraire, le système expert ne simule le raisonnement et la prise de décision
d’un humain que dans un domaine d’expertise
donné. Cette utilisation de l’IA est dite « faible », et c’est cette dernière
qui est présentement étudiée en droit.
Le Canada connaît une crise d’accès à la justice liée aux coûts, aux
délais et à la complexité des procédures judiciaires et extrajudiciaires,
évaluée à près de 746 millions de dollars par an[4]. Or le recours à des systèmes experts capables
d’automatiser certaines tâches juridiques s’avère être une solution à fort
potentiel pour répondre à ces défis — moteurs de recherche, assistants à la
rédaction et autres technologies performantes. En effet, ces outils promettent
une accessibilité et une adaptabilité accrue pour les services juridiques
gouvernementaux. Par exemple, l’IA permet la mise sur pied d’agents
conversationnels (chatbots)
spécialisés qui synthétisent l’information juridique disponible et l’adaptent à
la situation factuelle de leur interlocuteur en temps réel. Ces systèmes ont
par ailleurs la capacité de calculer les chances de succès d’une éventuelle
judiciarisation du conflit, ainsi que d’offrir une sélection d’arrêts
similaires au cas analysé. Les gains en temps et en argent, ainsi que les
bénéfices en matière de vulgarisation et de personnalisation du contenu
juridique sont ici considérables tant pour le justiciable que pour l’État.
La ministre de la Justice, Stéphanie Vallée, a annoncé mi 2018 la mise à
disposition de 500 millions de dollars pour moderniser la justice québécoise
d’ici 2022[5]. Nous sommes persuadés que l’État évaluera les
avantages et inconvénients de l’IA aux fins de servir la justice.
II. Réaliser
certes, mais à quel prix ?
L’exploration sur le plan juridique doit toutefois s’accompagner d’un
certain degré de prudence. Les gouvernements, lorsqu’ils développent et mettent
en œuvre de tels outils en droit, doivent s’assurer d’utiliser des bases de données
objectives et exemptes de tout biais. De plus, il est impératif de veiller à la
surveillance qualifiée, intègre et continue des algorithmes qui traitent ces
données[6].
L’essai du logiciel Compas aux
États-Unis en est un exemple frappant. Ce dernier servait notamment à calculer les
risques de récidives des détenus à des fins d’aide à la décision dans certains
comtés américains. Les résultats obtenus par quatre journalistes en testant
l’algorithme ont cependant fait apparaître la couleur de peau comme facteur
déterminant dans les conclusions du logiciel, et ce, à l’encontre des Noirs[7]. Les données utilisées étaient en l’espèce porteuses
de stéréotypes véhiculés dans la société américaine, et leur traitement
algorithmique laissait apparaître des biais ethniques graves[8].
En sus, les algorithmes créés par le secteur privé sont des boîtes
noires qui restent jalousement gardées au nom du secret des affaires. Les
entreprises n’acceptent pas de divulguer les modalités de façonnement de ces
algorithmes ainsi que la provenance des données utilisées. En d’autres termes, le
public n’a pas accès de facto aux
paramètres décisionnels utilisés et ne peut retracer le raisonnement suivi. Le
scandale de 2016 au sujet de l’opacité de la plateforme Admission post-bac a
conduit à l’adoption du principe de l’ouverture par défaut des algorithmes
publics en France[9]. À
l’avenir, et sur demande, l’administration française devra fournir des
explications sur les règles sous-jacentes de toute décision fondée sur un
traitement algorithmique, ainsi que sur les principales caractéristiques de ce
dernier.
Tels que les exemples des États-Unis ou de la France le révèlent, l’incorporation
de ces outils dans notre système de justice doit se faire progressivement afin
d’anticiper les embûches rencontrées par le passé, et particulièrement en
matière d’aide à la décision. Le Canada disposant d’un écosystème d’IA
remarquable et de chercheurs de renommée mondiale, il serait à propos de se pourvoir
d’un cadre législatif adapté afin de promouvoir l’innovation tout en offrant
des garanties aux citoyens.
Si vous souhaitez en apprendre
davantage sur le thème de l’IA et du droit, nous vous donnons rendez-vous dans
les parutions de L’ExtraJudiciaire de décembre
2018 et de février 2019.
[1] D’après une conversation
entre Yoshua Bengio et Philippe Couillard dans Alec CASTONGUAY, « Prêts pour l’intelligence artificielle? », L’actualité, mars 2018, 32-41, à la page 35.
[2] Le terme désigne « des ensembles de données devenus si volumineux qu’ils dépassent
l’intuition et les capacités humaines d’analyse et même celles des outils
informatiques classiques de gestion de base
de données ou de l’information », dans CEA, « Conférence au cœur du Big
data », en ligne : « http://www.cea.fr/multimedia/Pages/videos/culture-scientifique/technologies/conference-big-data.aspx » (consulté le 08 octobre 2018).
[3] « Selon le NIST, l’infonuagique (ou informatique en nuage) est un modèle
d’accès au réseau habilitant, pratique et sur demande comprenant un bassin
partagé de ressources informatiques configurables qui peut rapidement être
activé et désactivé en réduisant au minimum les efforts de gestion ou les
contacts avec le prestataire de services. », dans Nicolas Vermeys
et Sarith Mizrahi, « Étude
sur les incidences juridiques de l’utilisation de l’infonuagique par le
gouvernement du Québec », Lab. Cyberjustice 2014, 5, en
ligne :
<https://www.cyberjustice.ca/publications/etude-sur-les-incidences-juridiques-de-lutilisation-de-linfonuagique-par-le-gouvernement-du-quebec/>
(consulté le 6 octobre 2018).
[4] « Everyday Legal Problems and the cost of
Justice in Canada », Forum canadien de la justice civile, 2015, en
ligne : « http://www.cfcj-fcjc.org/sites/default/files//CostofJustice_overivewfactsheet%20.pdf » (consulté
le 25 septembre 2018).
[5] En ligne : « https://ici.radio-canada.ca/nouvelle/1097091/500-m-supplementaires-pour-moderniser-les-palais-de-justice » (consulté le 11
septembre 2018).
[6] Pour en savoir plus, consulter
Adrien Basdevant et Jean-Pierre Mignard,
L’empire des données: essai sur la société, les algorithmes et la loi,
Paris, Don Quichotte éditions, 2018.
[7] Julia ANGWIN, Jeff LARSON, Surya MATTU et
Lauren KIRCHNER, « There’s software used across the country to predict
future criminals. And it’s biased against blacks. », en ligne : « https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing » (consulté le 11 septembre 2018).
[8] Id.
[9] Loi n° 2016-1321 du 7 octobre
2016 pour une République numérique (France).
Commentaires (0)
L’équipe du Blogue vous encourage à partager avec nous et nos lecteurs vos commentaires et impressions afin d’alimenter les discussions sur le Blogue. Par ailleurs, prenez note du fait qu’aucun commentaire ne sera publié avant d’avoir été approuvé par un modérateur et que l’équipe du Blogue se réserve l’entière discrétion de ne pas publier tout commentaire jugé inapproprié.