Bruno Mathis est chercheur associé au laboratoire Chrome, Université de Nîmes
Le ministère de la justice a-t-il besoin d’IA ?
Bruno Mathis
Cela fait quelque temps que les professions du droit et la LegalTech s’intéressent à l’intelligence artificielle (IA). L’attention semble maintenant se déplacer vers le ministère de la Justice, puisque, ces douze derniers mois, trois rapports publics ont été consacrés au moins en partie aux perspectives de l’IA pour le ministère et les juridictions. L’un a été produit par la commission des lois du Sénat, un autre par la Cour de Cassation et un dernier par la Chancellerie. De la lecture de ces trois rapports se dégage une impression de techno-solutionnisme, c’est-à-dire d’une solution technique en quête de problèmes à traiter.
Ce réflexe n’est pas nouveau – ni d’ailleurs spécifique à la justice. La première étude entreprise au ministère, en 1977, pour évaluer l’état des lieux et les perspectives en matière d’informatisation, fait déjà le constat que le ministère a voulu "faire de l’informatique" et s’est demandé où l’appliquer. En 1986, alors que le Comité interministériel de l’informatique et de la bureautique dans l’administration et l’ENA produisent conjointement un rapport sur « les systèmes experts dans l'administration », la Chancellerie explique dans une plaquette qu’elle « se propose, en liaison avec les universités, de concevoir les premiers systèmes experts en matière judiciaire. Ils viseront à guider le magistrat dans le déroulement du raisonnement juridique en lui permettant de ne négliger aucune des possibilités offertes par les réglementations les plus complexes ». Elle alloue deux cent cinquante mille francs au développement d’un système d’expert appliqué au droit de la nationalité (on appelle aujourd’hui les systèmes experts des systèmes d’ « IA symbolique », mais il faut chercher pour en trouver). Sur une autre technologie, en 1997, le premier ministre Alain Juppé demande aux administrations d’utiliser EDIFACT, une norme onusienne, pour leurs échanges de données informatisées (EDI). En 1999, le Comité central d'enquête sur le coût et le rendement des services publics, un service du Premier Ministre, se désole de constater « la quasi-inexistence de l’EDI dans la Justice ».
Des choix « à front renversé »
De nombreux rapports publics vantent ainsi volontiers les atouts de telle ou telle technologie dans une intention louable de modernisation. Il n’appartient pas moins à l’administration concernée de partir d’une analyse de ses besoins. Or, déjà en 1994, la Cour des comptes dénonce des choix stratégiques et techniques « à front renversé » au ministère de la Justice. Aujourd’hui encore, on est en droit de s’interroger sur les rares projets d’IA entrepris par le ministère de la justice.
Rappelons que l’intelligence artificielle d’aujourd’hui, dite « connexionniste », par opposition à l’IA symbolique, est une informatique fondée sur l’apprentissage et la probabilité au lieu d’être fondé sur des règles. Tout système de ce type est exposé à une marge d’erreur.
Encore faut-il assumer l’existence d’un risque puis définir son niveau acceptable. Dans son traitement d’anonymisation des décisions de justice, la Cour de cassation semble plutôt chercher le zéro-faute. Malgré une qualité un temps annoncée de 99 %, la Cour n’en a pas moins rajouté une couche d’informatique fondée sur des règles, comme la détection de plaque d’immatriculation ou de numéro de carte bancaire, et recruté une vingtaine d’agents afin de débusquer toutes les données personnelles qui seraient passées au travers du tamis de l’anonymisation. Auparavant, Légifrance anonymisait les décisions faisant jurisprudence en se fondant sur des règles, évidemment imparfaites, qui laissaient passer des erreurs, mais sans provoquer d’émoi. Il n’est pas démontré que l’IA répondait au besoin et s’imposait au prix de l’investissement consenti.
Autre projet d’IA, Datajust, annoncé inopinément en pleine crise sanitaire, consiste à fabriquer un barème d’indemnisation des préjudices corporels à partir d’un apprentissage des décisions de justice rendues sur ce type de contentieux. Le besoin d’un tel barème est compréhensible, quoique discuté, mais alors que les grands projets de chaînes du contentieux, Cassiopée en pénal et Portalis en civil, sont en difficulté, il ne va pas de soi de s’engager dans une expérimentation complexe sur un sujet très sensible pour les avocats dont c’est la spécialité. Le projet est stoppé à peine deux ans après son lancement.
Un récent appel d’offres illustre encore la tentation du solutionnisme technologique. Le cahier des charges porte sur l’évolution du système d’information des relations humaines, et en particulier un module de gestion prévisionnelle des emplois, des effectifs et des compétences (GPEEC). Le chapitre en question est intitulé « GPEEC avec réflexion sur l’intelligence artificielle ». Le cahier des charges stipule que « l’intelligence artificielle doit faciliter la constitution des référentiels métiers et compétences, améliorer l’adéquation poste-profil des agents, renforcer la dimension prospective de la gestion des ressources humaines du ministère ». Le ministère envisage d’utiliser de l’intelligence artificielle sans savoir si elle est nécessaire au cas d’espèce.
Rappelons une évidence : l’analyse des besoins précède la définition d’une solution. L’IA se justifie pour tout besoin qu’on ne sait pas combler avec une informatique fondée sur des règles ou pour tout besoin qu’elle satisfait de façon plus efficace moyennant un niveau de risque acceptable. Et là où l’absence totale de risque fait partie de l’expression de besoin, il vaut mieux se diriger vers uneinformatique fondée sur des règles…

Aucun commentaire:
Enregistrer un commentaire