Avec cet article, l’auteure s’interroge sur le possible recours à des algorithmes et à l’intelligence artificielle pour accélérer et fluidifier les procédures judiciaires. Elle explore les différents enjeux associés à de telles introductions, constitutives d’une « justice prédictive », enjeux dont la portée dépasse largement la seule sphère juridique.
Les opinions exprimées dans cet article n’engagent pas le CSFRS.
Les références originales de ce texte sont : « La Justice prédictive : Mythe ou réalité ? », Cécile Doutriaux, Revue de la Gendarmerie Nationale, 2e trimestre 2018
Ce texte, ainsi que d’autres publications peuvent être visionnés sur le site du CREOGN
« La justice permet la conception d’une société civilisée et pacifiée. Sans justice, c’est la loi de la jungle et des marchés » [1]
Depuis plusieurs années, la justice doit affronter de nombreux enjeux : faire respecter les droits des citoyens, rendre des décisions plus rapidement, tout en étant moins onéreuse. Pour parvenir à ces objectifs, les réformes judiciaires se succèdent, sans toutefois satisfaire les justiciables ni susciter l’adhésion des principaux acteurs : magistrats et avocats.
Certains affirment aujourd’hui que » la justice est en situation de rupture « , sans que les journées » justice morte » de 2018 n’aient suscité un intérêt médiatique important.
Si l’on examine les reproches adressés à la justice par les justiciables, les deux points majeurs concernent la lenteur et le coût des procédures. Pourtant, depuis de nombreuses années, l’État a mis en place l’aide juridictionnelle (971.181 personnes en ont été bénéficiaires en 2016), les assurances de protection juridique permettent la prise en charge des frais d’un procès et les magistrats, soumis à une politique du chiffre, rendent un nombre important de décisions tous les ans (3.877.819 en 2016 selon le ministère de la justice).
Peu importent en réalité les problèmes auxquels sont confrontés quotidiennement les acteurs du monde judiciaire, l’essentiel pour le pouvoir politique est d’endiguer la générale et profonde insatisfaction des citoyens qui ont désormais de nouvelles attentes vis-à-vis de la justice : ne plus attendre, donner son avis, participer pleinement aux mesures qui les concernent et payer le moindre coût.
En effet, la révolution digitale a permis l’émergence de communautés virtuelles de partage et d’entraide. Constituées autour d’intérêts communs, elles ne reposent pas sur un pouvoir central hiérarchique mais sur une construction commune de règles, ce qui remet en question l’organisation du pouvoir judiciaire, jugé « inégalitaire et élitiste ». [2]
La « loi des algorithmes » pourrait incarner ce nouvel état d’esprit et serait « significative du glissement du gouvernement politique, délibéré et vertical, vers la gouvernance mathématique automatique et horizontale ». [3]
La justice, qui n’échappe bien évidemment pas à ces importants changements technologiques et sociétaux, doit évoluer. Ainsi, le projet de loi de programmation et de réforme pour la Justice 2018-2022 a, pour la première fois, envisagé de recourir à des plateformes d’algorithmes pour résoudre certains litiges.
Cette proposition a été incitée par les legaltech [4], lesquelles, par un discours économique insistant et offensif, promettent de fournir des outils qui permettraient aux professions juridiques, à partir du traitement d’un volume important de jugements, d’anticiper l’issue d’un procès et d’affiner la stratégie judiciaire. Cette solution alimente l’idée selon laquelle, grâce à l’intelligence artificielle, la décision serait rendue « en toute impartialité », par l’analyse objective d’un volume important de données, ce qui permettrait de réduire l’intervention humaine, subjective et suspectée d’être partiale. Elle permettrait de garantir aux justiciables la confiance, la rapidité et la gratuité des procédures judiciaires et bien évidemment, en cas de succès, cette solution serait étendue à d’autres contentieux.
L’idée a de quoi séduire ! D’autant plus qu’à l’issue de chaque procès, une partie gagne et l’autre perd, ce qui a pour effet de rendre la moitié des justiciables insatisfaits ! Alors, la justice prédictive est-elle un mythe ou une future réalité ?
I. IA et enjeux judiciaires
L’intelligence artificielle consiste à mettre en œuvre un certain nombre de techniques pour permettre aux machines d’imiter une forme d’intelligence humaine. Elle vise à reproduire, à l’aide de machines, des activités mentales, qu’elles soient de l’ordre de la compréhension, de la perception ou de la décision.
Dans le domaine judiciaire, l’intelligence artificielle serait ici utilisée par le biais d’algorithmes de recommandation, employés pour établir des modèles prédictifs à partir d’une quantité importante de jugements, collectés grâce au Big Data et ouverts à tous gratuitement dans le cadre de l’Open Data, prévu aux articles 20 et 21 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
1. Au niveau technique et juridique
Avant de mettre en œuvre la justice prédictive, certaines précautions légales doivent toutefois être prises.
L’open Data implique la nécessité d’anonymiser les décisions de justice pour respecter la vie privée des justiciables et éviter une condamnation « à perpétuité », puisque les jugements seraient accessibles à tous, sans limitation de durée, par le biais de sites Internet. La majorité des magistrats et des greffiers souhaitent également bénéficier de cette anonymisation, selon le rapport relatif à « l’Open Data des décisions de justice » du 29 novembre 2017, pour éviter tout profilage et toute pression de l’opinion publique sur les réseaux sociaux qui pourrait être exercée à la suite des décisions rendues.
L’anonymisation des décisions de justice, réalisée par la Direction de l’information légale et administrative (DILA), présente un coût important, ce qui explique que le site officiel « https://www.legifrance.gouv.fr » comporte un nombre de décisions réduit (13.360) par rapport au nombre de jugements rendus chaque année (2 630 085 décisions en matière civile et commerciale, 1 200 575 en matière pénale et 231 909 décisions administratives en 2016). L’open Data impliquerait la nécessité d’anonymiser une quantité très importante de données et cette mission serait donc confiée à la Cour de Cassation et au Conseil d’État.
Les legaltech refusent de procéder à cette anonymisation en raison de son coût et affirment qu’il serait possible, grâce à leurs outils numériques, d’établir une carte de France pour mettre en relief les différentes disparités et convergences entre les jugements rendus d’une région à l’autre et d’un magistrat à l’autre.
Pourtant, dans la mesure où les décisions de justice collectées doivent être anonymisées, l’idée selon laquelle il serait possible de déterminer « les orientations » des magistrats quand ils rendent des décisions et la manière dont est traité un même conflit d’une région à l’autre, serait erronée. Cette solution était d’ailleurs illusoire puisque la carrière d’un juge évolue dans le temps, par des changements d’affectation vers différents contentieux, tribunaux et territoires et qu’il est difficile de déterminer son influence individuelle exacte, en cas de jugement rendu en collégialité par plusieurs magistrats.
Aucune décision, pour un même type de litige, n’est identique. Cette situation aléatoire est souvent incompréhensible et angoissante pour le justiciable qui ferait bien l’économie de l’imprévisibilité judiciaire ! Pourtant, loin d’être l’expression de l’arbitraire et l’illustration de sa partialité, le pouvoir souverain du juge permet de prendre en compte chaque dossier individuellement, chaque personne unique dans son histoire, son éducation, son environnement, son parcours, ses valeurs, ses capacités d’évolution ou de réinsertion.
Les attentes des parties peuvent également se transformer en cours de procédure, soit dans l’apaisement, soit dans la radicalité et il est rare de pouvoir prévoir, par anticipation, quelle sera l’évolution de chacun des justiciables pris individuellement, tant la complexité et l’ambivalence humaine s’expriment devant les tribunaux.
Dans ces conditions, comment paramétrer les algorithmes avec suffisamment de finesse pour prendre en compte la complexité de chaque affaire ?
Une décision prise par un algorithme ou avec l’assistance d’un algorithme présente l’avantage de sembler a priori plus équitable et plus juste qu’une décision humaine. Les legaltech prétendent ainsi que la justice prédictive serait forcément neutre et objective, ce qui permettrait de garantir davantage les droits des citoyens et éliminerait l’arbitraire.
Or, l’intervention humaine serait toujours présente en cas de recours à des plateformes algorithmiques, puisque le paramétrage de l’algorithme, le choix et la pondération des critères et des catégories de données prises en compte pour arriver au résultat recherché, relèvent de la main de l’homme. Les algorithmes seraient en réalité « des opinions exprimées dans du code ». Par conséquent, une justice rendue au moyen de l’intelligence artificielle n’éliminerait pas toute subjectivité ou discrimination.
Enfin, tout l’historique, les faits du litige et tous les arguments longuement développés dans les conclusions des avocats, ne sont pas repris en intégralité dans les jugements. Les décisions de justice résument donc partiellement un litige sans l’exposer intégralement et les outils d’analyse développés actuellement par les legaltech traitent uniquement le dispositif du jugement, c’est-à-dire la solution du litige sans exposer les faits, le raisonnement, ni les arguments ayant conduit à la décision.
Les décisions de justice préconisées, via des plateformes algorithmiques, reposeraient donc sur des données incomplètes et approximatives, donc inexactes, et produiraient des résultats erronés pour trancher un litige.
On peut donc légitimement s’interroger sur la pertinence de développer l’intelligence artificielle dans le domaine judiciaire, sur la base de statistiques partielles.
2. IA et principes directeurs du procès
Avant d’envisager l’application de l’IA à la justice, il est nécessaire de savoir aussi si la mise en place de cette technologie respecterait les principes fondamentaux qui gouvernent les procès.
En effet, tout justiciable doit bénéficier d’un procès équitable. Dans le cadre d’un procès civil et pénal, le juge ne tranche un litige qu’après une libre discussion des prétentions et arguments de chacun des adversaires. Chaque partie au procès a la possibilité de faire valoir son point de vue, de connaître et de discuter les arguments et les preuves de son adversaire, d’échanger avec lui les éléments et les pièces de son dossier, tout au long de la procédure.
Sur le fondement des articles 14 et 15 du Code de Procédure Civile, le juge veille au respect du principe du contradictoire et soumet à la discussion les arguments soulevés lors des débats.
Le temps de la plaidoirie permet aux avocats d’insister sur les points essentiels d’une affaire et d’attirer l’attention du juge sur les arguments qui leurs paraissent fondamentaux pour trancher le litige et sur les implications que prendrait telle ou telle décision pour la personne qu’ils défendent. Ce moment d’échanges, parfois vifs, permet d’incarner des conclusions écrites et de soulever des interrogations sur les différents arguments échangés par les parties, pour permettre au juge de trancher en toute connaissance de cause.
Face aux arguments inévitablement antagonistes développés par les avocats, les juges se réfèrent à la loi pour rendre une décision mais disposent également d’un « pouvoir souverain » pour trancher les litiges.[5]
Ainsi, ils apprécient, en toute indépendance, la valeur probante des éléments de preuve versés aux débats (attestations, procès-verbaux, rapports d’expertise…). Ils peuvent en interpréter la portée, les retenir ou les écarter comme non probants et disposent également d’un pouvoir souverain pour apprécier la connaissance, la compétence, l’intention des parties et leur bonne ou mauvaise foi.
Ces garanties sont fondamentales pour tout État de droit qui revendique des valeurs démocratiques et l’autorité judiciaire veille au strict respect de ces principes.
Le recours à l’intelligence artificielle pourrait difficilement respecter avec rigueur l’ensemble des principes directeurs du procès. En effet, les pièces ne seraient plus examinées, le litige ne serait plus véritablement débattu entre les parties, les juges ne disposeraient plus d’un pouvoir souverain, puisque leur décision serait orientée par le résultat donné par les plateformes algorithmiques, chargées d’anticiper le résultat du procès.
Enfin, si les juges devaient se contenter demain de reproduire ou d’être influencés par la recommandation émise par les algorithmes pour déterminer l’issue d’un litige, cela aurait pour effet de générer des résultats systématiquement identiques pour un même type de litige, ce qui aboutirait à un enfermement algorithmique. Il serait alors impossible de faire évoluer le droit, d’alerter le législateur et la Cour de Cassation sur les problèmes rencontrés sur le terrain judiciaire, dans l’application de la loi et de la nécessité de la faire évoluer.
En conclusion, l’idée selon laquelle il existerait une inexorable répétition des affaires et donc une possible automatisation des décisions est inexacte pour ceux qui pratiquent le monde judiciaire et ce, même si cela serait parfois plus simple pour les justiciables, les magistrats et les avocats.
II. IA judiciaire : responsabilité et confiance des citoyens
1. La responsabilité
Dans le cadre des jugements qu’il rend, le juge est en principe seul responsable de sa décision.
Un citoyen qui a un doute concernant la neutralité du juge peut demander sa récusation. Si le tribunal est jugé partial, il peut être dessaisi et l’affaire peut être renvoyée devant un autre tribunal, sur le fondement de l’article 342 du Code de Procédure Civile.
Le juge ne peut déléguer ou sous-traiter sa mission de rendre justice et il lui est strictement interdit d’automatiser ses décisions d’où l’impossibilité de se fonder sur un seul barème d’évaluation, comme l’a rappelé la 1ère Chambre Civile de la Cour de Cassation par un arrêt n° 12-25301 du 23 octobre 2013.
De plus, la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (article 10 al. 2) et le règlement européen sur la protection des données personnelles (article 22) disposent « qu’aucune décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données ».
Recourir à des machines ne doit pas conduire à une déresponsabilisation des acteurs judiciaires. Or, avant même de prévoir la résolution des litiges via des plateformes algorithmiques, aucune loi n’a réglementé la responsabilité des différents intervenants en matière d’intelligence artificielle. Il est donc à ce jour impossible de savoir, en cas de dommages causés à des tiers par les algorithmes, qui serait responsable et tenu de réparer les préjudices subis.
Aucun régime de responsabilité spécifique n’ayant été envisagé, la seule solution est donc de s’en référer aux régimes de responsabilités existants, à savoir notamment la responsabilité civile et pénale, pour savoir s’ils auraient vocation à s’appliquer à l’intelligence artificielle.
Or, aucun de ces régimes n’est applicable puisque pour être considéré responsable, il faut être doté de la personnalité juridique, c’est-à-dire être sujet et titulaire de droits, ce qui n’est pas le cas d’un robot ou d’une machine.
Ainsi, la responsabilité civile implique un fait de « l’homme » car l’article 1240 du Code Civil dispose que « tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer ».
La responsabilité pénale, prévue par l’article 121-1 du Code Pénal, selon lequel « Nul n’est responsable pénalement que de son propre fait », suppose également une personnalité juridique.
La responsabilité du fait des produits défectueux de l’article 1245 du Code Civil prévoit que « le producteur est responsable du dommage causé par un défaut de son produit, qu’il soit ou non lié par un contrat avec la victime » pourrait convenir davantage.
Mais cela supposerait que les algorithmes soient considérés comme une chose ou un bien meuble, ce qui n’est pas acquis à l’heure actuelle.
Face à cette complexité, certains ont proposé d’attribuer la personnalité juridique aux robots (en leur attribuant un numéro 3, comme pour le numéro 1 ou 2 de la sécurité sociale attribué aux hommes et aux femmes). Cette idée reviendrait à accorder aux algorithmes les mêmes droits que ceux dévolus aux personnes physiques et aux personnes morales (ex : de signer des contrats, de porter plainte…), ce qui n’est pas sérieux.
En réalité, dans la mesure où il est inconcevable d’envisager une totale absence de responsabilité de l’autorité judiciaire, dans le cadre d’une justice basée sur des plateformes algorithmiques, il conviendrait d’élaborer un régime de co-responsabilité.
La difficulté consisterait alors à savoir exactement, dans la chaîne des différents intervenants, qui est véritablement responsable du préjudice subi par le justiciable : le fabricant, la plate-forme, le ministère de la justice et les juridictions qui paramètrent les algorithmes ou le juge qui rend sa décision ?
Si l’on envisage une co-responsabilité entre la plate-forme et le juge, il conviendrait aussi de savoir dans quelle proportion le magistrat saisi de l’affaire s’est conformé ou non à la recommandation émise par la plateforme, ce qui aboutirait à une dilution de responsabilité ou obligerait le juge à se conformer systématiquement à la préconisation émise par la plateforme, pour éviter toute remise en cause.
2. Confiance et adhésion des citoyens
Le projet de loi de programmation et de réforme pour la Justice 2018-2022 déclare avoir pour volonté de « simplifier et de rapprocher la justice du citoyen ».
Il est certain que l’idée selon laquelle tout aléa et toute partialité seraient écartés a de quoi séduire et encore d’avantage si l’on promet une décision rapide ! Quelle serait en effet l’utilité de recourir à un magistrat ou à un avocat, puisque sur la base du Big Data, un volume phénoménal de décisions de justice pourrait permettre d’anticiper la décision du juge ?
La mise en place d’une telle solution, si inhabituelle, suppose toutefois l’adhésion et la confiance des justiciables en cette nouvelle forme de justice. Cette confiance est loin d’être acquise puisque 95 % des citoyens souhaitent que l’humain garde le contrôle sur les algorithmes, car ils craignent avant tout la perte du contrôle
humain (53 %), la normativité et l’enfermement algorithmique (56 %) et la collecte disproportionnée de données personnelles (50 %), selon l’étude publiée par la CNIL en décembre 2017. [6]
Quelle confiance peut-on accorder à ces plateformes ? Cette question nécessite que l’on examine quels sont les acteurs qui proposent ces nouveaux outils numériques.
Ces services sont principalement proposés par les legaltech, qui ne disposent d’aucune compétence juridique et dont le terme « légal » ne correspond à aucune réalité puisque les dirigeants de ces sociétés sont essentiellement issus d’écoles de commerce et ne sont pas juristes.
L’âge moyen des legaltech françaises est de 3 ans pour 69,2 % d’entre elles et si 2/3 ont été créées depuis 2015, une diminution de 40 % a été constatée pour leur création en 2017.
S’il existe environ 75 entreprises legaltech en France, les services proposés ne concernent que très minoritairement la justice prédictive (5,5 %) et la protection des données (4,4 %), étant précisé que ces services sont payants alors qu’en fonction des ressources, l’État prend en charge les frais de justice, pour garantir à chacun le droit de se défendre.
On peut également s’interroger sur le fait que les tribunaux ouvriraient des données sensibles à des sociétés privées chargées de les analyser et de les transformer, afin de les revendre ensuite aux mêmes juridictions et aux justiciables, ce qui aboutirait à une dépendance économique et à une marchandisation de la justice, peu souhaitables.
Concernant la justice prédictive, une expérimentation a été menée en 2017 avec les cours d’appels de Rennes et de Douai en partenariat avec le ministère de la justice et la société Predictice, sans toutefois convaincre les juges.
En effet, selon M. Xavier Ronsin, premier président de la cour d’appel de Rennes et ancien directeur de l’École Nationale de la Magistrature, la solution proposée par la legaltech n’a apporté aucune plus-value par rapport à d’autres moteurs de recherche qui permettent déjà une analyse de la jurisprudence et l’outil testé réaliserait davantage une approche statistique et quantitative que qualitative. [7]
Enfin, l’ultime problème que posent ces plateformes algorithmiques est le défaut de transparence et d’information quant aux moyens techniques et aux critères utilisés pour mettre en place des recommandations visant à aider, si ce n’est fortement influencer, la prise de décision juridique.
Conclusion
Rendre justice est une mission essentielle qui relève d’un pouvoir régalien de l’État et lui permet d’affirmer sa souveraineté sur son territoire.
Il est donc logique que les services régaliens, tels que l’armée, les forces de l’ordre et la justice, incarnés par les ministères des Armées, de l’intérieur et de la justice, soient assurés par l’administration et financés par les contribuables. Leur organisation ne se pose pas en termes de compétitivité économique : faire respecter la loi ne crée pas de richesses à proprement parler mais quelque chose de bien plus essentiel et précieux : la sécurité et le sentiment d’appartenance à une nation. C’est la raison pour laquelle le Conseil Constitutionnel a affirmé que les services publics nationaux, tels que la justice, la défense et la police, sont des services publics insusceptibles de privatisation (CC n° 86-207 DC du 26 juin 1986).
Pourtant, les legaltech ne cessent d’inciter les citoyens et les gouvernements successifs à leur confier le traitement du contentieux judiciaire et des pans entiers de contentieux sont désormais exclus des tribunaux avec la déjudiciarisation, qui s’accélère à chaque nouvelle réforme de la justice.
Les algorithmes et l’intelligence artificielle conduisent à une forme de dilution des figures d’autorité traditionnelles. Confier la lourde et difficile tâche de rendre la justice à des sociétés privées, dans le seul objectif de réaliser des économies, est une erreur et si les justiciables sont insatisfaits du système judiciaire actuel, il n’est pas certain qu’ils seront davantage convaincus par la nouvelle justice qui leur est proposée.
La justice prédictive pourrait avoir pour effet de creuser les inégalités sociales et de renforcer la défiance envers les institutions et alors « une chance immense deviendrait un risque immense et cela pourrait totalement mettre à mal notre cohésion nationale et notre vivre-ensemble, ce qui amène à conclure que cette gigantesque révolution technologique est en fait une révolution politique ».[8]
L’AUTEURE
Maître Cécile Doutriaux, avocate, fondatrice du cabinet Juris Défense Avocats, est membre de la Chaire Cyberdéfense & Cybersécurité des écoles de Saint-Cyr SOGETI & THALÈS, de la Réserve Citoyenne Cyberdéfense et auditeur de l’IHEDN. Elle enseigne le droit des technologies de l’informatique et de la communication au Conservatoire National des Arts & Métiers (formation labellisée par la CNIL).
References