Justice et algorithmes

Sébastien Gambs plaide pour un développement responsable de l'intelligence artificielle dans les domaines du droit et de la justice.

11 Juin 2018 à 13H43

Photo: GettyImages

Depuis quelques années, l'intelligence artificielle (IA) investit la plupart des sphères de la société, y compris celle du droit. En novembre dernier, le journal Le Devoir rapportait que la Colombie-Britannique et l'Ontario avaient adopté de nouveaux outils juridiques grâces à des logiciels dotés d'IA. En Colombie-Britannique, par exemple, on peut régler un conflit de clôture avec son voisin ou une dispute avec son employeur en s'adressant à un tribunal virtuel. Celui-ci aurait reçu, en un an, plus de 700 demandes liées à des conflits de propriété et plus de 1 600 relevant des petites créances.

Le professeur du Département d'informatique Sébastien Gambs se réjouit des innovations technologiques en IA, tout en ajoutant qu'«il est important de réfléchir aux conditions de leur développement, aux chances et aux risques qu'elles comportent, notamment à leurs impacts sociaux et éthiques». Avec ses collègues Marie-Jean Meurs (Département d'informatique) et Hugo Cyr, doyen de la Faculté de science politique et de droit, Sébastien Gambs codirige le projet de recherche Legalia pour un développement responsable et éthique de l'intelligence artificielle dans les domaines du droit et de la justice. Ces trois professeurs, membres du regroupement de chercheurs HumanIA, qui s'intéresse aux enjeux sociaux et éthiques associés aux développements technologiques en IA, ont obtenu un financement pour le projet Legalia, l'un des 22 projets retenus parmi les quelque 300 soumis dans le cadre du programme Audace des trois Fonds de recherche du Québec.

Sébastien Gambs et Marie-Jean Meurs seront responsables d'une session thématique consacrée aux impacts de l'IA dans le domaine du droit lors de la 31e International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, qui réunira 200 à 300 chercheurs à l'Université Concordia du 25 au 28 juin prochains.

Une justice prédictive

S'il y a un domaine d'application de l'IA qui est porteur de transformations majeures en matière de droit, c'est bien celui de la justice dite prédictive. «Aux États-Unis, des entreprises de technologies juridiques – les Legaltech – ont développé des logiciels et des algorithmes d'intelligence augmentée, tel le logiciel Compas, pour déterminer si un suspect doit être placé ou non en détention provisoire avant son procès, ou pour évaluer la probabilité de récidive, ce qui est susceptible d’influencer les décisions des juges concernant une libération conditionnelle ou la durée d'une peine», explique Sébastien Gambs.

Des études ont montré, toutefois, que le logiciel Compas donnait des résultats différents selon la couleur de peau des suspects. Ainsi, les Afro-Américains étaient plus susceptibles que les Blancs de se voir attribuer à tort un risque plus élevé de récidive. «Les données alimentant les algorithmes peuvent comporter des biais qui reproduisent les préjugés sociaux et qui génèrent des effets discriminatoires pour certains groupes d'individus, note le professeur. Le développement d'algorithmes prédictifs, aussi performants soient-ils, ne doit pas aboutir à ce que l'IA se substitue à l'analyse juridique et au raisonnement personnel du juge. Dans le cadre du projet Legalia, nous voulons justement mesurer les biais potentiels des données en examinant la façon dont ils sont produits.»

Certains experts évoquent d'autres algorithmes prédictifs basés sur l'accès à des banques de données de jurisprudence contenant des milliers de décisions rendues par différentes instances judiciaires, lesquelles permettraient d'accélérer le règlement de litiges en améliorant la prévisibilité des décisions de justice. En transformant la jurisprudence en base de données statistiques, certaines Legaltech offrent aux avocats et aux juges la possibilité d'anticiper les chances de gagner un procès et le montant éventuel d'indemnités en se basant sur des affaires similaires traitées par le passé, ou encore d'adapter leur stratégie en se servant d'arguments ayant fait leurs preuves.

Selon Sébastien Gambs, ces outils doivent être perçus comme une aide auxiliaire permettant de faciliter le travail des avocats et des juges. «Encore là, dit-il, le risque avec ces algorithmes prédictifs est que le juge perde sa liberté d'appréciation et son indépendance. Il doit rester maître de l'interprétation des résultats fournis par les algorithmes et des conséquences à en tirer.»

Des impacts positifs

Si les logiciels et algorithmes intelligents ne sont pas sans risque pour la justice, ils offrent aussi des avantages. Les processus d'automatisation, par exemple, permettraient de libérer les avocats et les juges de tâches routinières, au profit d'une justice plus rapide et plus efficace. L'utilisation d'algorithmes pour le traitement des dossiers les plus simples et les plus répétitifs, comme ceux qui ne nécessitent que l'évaluation d'un dommage, pourraient faciliter le règlement de litiges en amont du recours au juge et favoriser le développement de la médiation ou de la conciliation.

Chose certaine, l'IA risque de chambouler le quotidien des professionnels de la justice, observe le professeur. «Le travail des assistants d'avocats, par exemple, qui consiste à fouiller les documents juridiques et à effectuer des recherches, pourrait disparaître avec le développement d'algorithmes d'apprentissage. Le fait que certains cabinets d'avocats, plus fortunés que d'autres, puissent avoir un accès privilégié à ces outils et à leurs données, constitue par ailleurs un autre problème.»

Sébastien Gambs et ses collègues se pencheront aussi sur la question de l'accès à la justice. «On sait que les frais de consultation d'avocat peuvent osciller entre 100 et 200 dollars de l'heure, rappelle le chercheur. Il serait possible de concevoir un robot de clavardage, capable d'utiliser le langage naturel, qui orienterait les citoyens vers des ressources et des documents juridiques pertinents, en fonction de leurs besoins.»

Des langages différents?

Les technologies et les données de l'IA sont actuellement concentrées entre les mains d'entreprises du secteur privé qui détiennent les connaissances de pointe. Parlent-elles le même langage que celui des chercheurs universitaires et des autorités publiques en ce qui concerne le développement responsable et éthique de l'IA? «Plusieurs entreprises sont conscientes des impacts sociaux de l'IA, indique Sébastien Gambs. Certaines se sont doté de chartes en matière de développement responsable de l'IA, tandis que d'autres craignent une réglementation de l'État qui encadrerait leurs activités.»

Le gouvernement canadien a annoncé son intention de présenter, d'ici six mois, un plan d'action pour encadrer l'évolution de l'IA, notamment en ce qui a trait à la protection des données personnelles. «En février dernier, une commission parlementaire fédérale suggérait de mettre à jour la législation canadienne dans ce domaine, souligne Sébastien Gambs. Il faut souhaiter une stratégie fédérale globale pour l'IA et pour la protection de la vie privée. Cette stratégie pourrait s'inspirer du nouveau règlement européen sur la protection des données personnelles, en vigueur depuis mai dernier, qui doit permettre à l'Europe de s'adapter aux nouvelles réalités du numérique.» 

Articles connexes
PARTAGER
COMMENTAIRES 0 COMMENTAIRE