Photo issue du site de l'Assemblée nationale ou de Wikipedia

Dimitri Houbron
Question N° 24398 au Ministère de la justice


Question soumise le 12 novembre 2019

M. Dimitri Houbron interroge Mme la garde des sceaux, ministre de la justice, sur la place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils. Il rappelle que certains pays membres de l'Organisation de coopération et de développement économiques (OCDE), tels que la Finlande ou les États-Unis, ont de plus en plus recours à des algorithmes dans leurs systèmes de justice. Il cite, à titre d'exemple, le logiciel américain COMPAS, mesurant le risque de récidive des prévenus, qui s'est révélé peu précis et peu efficace. Il en déduit qu'il est fondamental que les professionnels du secteur et l'État se saisissent du sujet de l'intelligence artificielle (IA) dans la justice et définissent les usages qu'ils veulent en faire afin d'éviter l'avènement d'une justice expéditive et déshumanisée. Il rappelle que les outils d'IA sont dénommés, à tort, « justice prédictive ». Il précise qu'il s'agit, en réalité, de statistiques sur des décisions de justice qui peuvent faciliter la compréhension des professionnels du droit pour orienter une stratégie. Il en déduit que l'IA ne représente qu'une aide qui complète, et non remplace, l'intelligence humaine dans le processus de décision. Il rappelle les propos d'un ancien vice-président du Conseil d'État qui déclarait que bien que les algorithmes dans le droit constituent « une opportunité », il est nécessaire de les utiliser « en sachant faire preuve d'une grande vigilance sur l'intangibilité d'une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit. Il note que le secteur juridique privé français gagnerait à établir des bonnes pratiques et à respecter une certaine déontologie en matière de transparence des outils. Il cite, à titre d'exemple, des éditeurs juridiques privés qui ont déjà créé des algorithmes sans boîtes noires en France. Il lui demande donc de clarifier la position du Gouvernement sur le développement de l'IA dans le secteur du droit et de la justice, et sur la possibilité de travailler avec les « legaltech » à la mise en place d'une certification qui permettrait le déploiement raisonné et éthique de ces solutions d'IA.

Réponse émise le 7 janvier 2020

Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles. Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats. Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech, seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique. En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés. Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. A ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ». La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33). La certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel, constitue une étape supplémentaire dans la construction du cadre juridique en la matière. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout en informant pleinement le justiciable. Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice. Les données qui seront libérées dans ce cadre permettront ainsi de sécuriser l'entraînement des algorithmes en mettant à disposition des données complètes et non biaisées, aspect essentiel de la construction de solutions algorithmiques fiables. Dans la ligne des engagements souhaités par le président de la République quant au positionnement de la France comme actrice majeure de l'intelligence artificielle, le ministère de la justice soutient plusieurs projets aux fins d'expérimentation de l'intelligence artificielle appliquée à la matière judiciaire, en partenariat avec la mission Etalab : les projets DataJust et OpenJustice. En outre, le ministère participe à l'élaboration d'outils internationaux permettant d'inscrire la France dans une perspective européenne en la matière. Ainsi, la charte éthique européenne sur l'utilisation de l'IA dans les systèmes judiciaires a été adoptée lors de la 31ème réunion plénière de la Commission européenne pour l'efficacité de la justice. Elle dégage notamment cinq grands « principes » de l'intelligence artificielle vertueuse, que sont le principe de respect des droits fondamentaux, le principe de non-discrimination, le principe de qualité et de sécurité, le principe de transparence, de neutralité et d'intégrité intellectuelle, ainsi que le principe de maîtrise par l'utilisateur. Le ministère de la justice suit également les travaux de la Commission ainsi que ceux qui seront entrepris dans le cadre du comité ad hoc sur l'intelligence artificielle crée par le Conseil de l'Europe.

Aucun commentaire n'a encore été formulé sur cette question.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.