« La liberté, ce bien qui fait jouir des autres biens », écrivait Montesquieu. Et Tocqueville : « Qui cherche dans la liberté autre chose qu’elle même est fait pour servir ». Qui s’intéresse aujourd’hui à la liberté ? A celle qui ne se confond pas avec le libéralisme économique, dont on mesure combien il peut être source de prospérité mais aussi d’inégalités et de contraintes sociales ? A celle qui fonde le respect de la vie privée et la participation authentique à la vie publique ? La liberté devrait être au cœur de la démocratie et de l’Etat de droit. En même temps, elle ne peut être maintenue et garantie que par la vigilance et l’action des individus. Ils ne sauraient en être simples bénéficiaires ou rentiers, ils doivent non seulement l’exercer mais encore surveiller attentivement ses conditions d’exercice. Tâche d’autant plus nécessaire dans une période où les atteintes qui lui sont portées sont aussi insidieuses que multiples.


lundi 18 juillet 2022

Les Invités de LLC. Bruno Mathis : Faut-il hiérarchiser les décisions de justice ?

 Bruno Mathis est chercheur associé au Centre de droit et d'économie de l'ESSEC


Faut-il hiérarchiser les décisions de justice ?

 

Remise du rapport "La Diffusion des données décisionnelles et la jurisprudence - Quelle jurisprudence à l'ère des données judiciaires ouvertes ?" à Madame la première présidente de la Cour de cassation et à Monsieur le procureur général près la Cour, le 14 juin 2022. 

Alors que les arrêts en matière civile sont depuis peu accessibles gratuitement, un groupe de réflexion constitué par la Cour de cassation s'est penché sur les effets sur la jurisprudence de l'extension prochaine de l'open data aux jugements des tribunaux. La Cour a sans doute prévu pour plus tard la description des modalités opérationnelles de cette ultime phase, dont on ne sait toujours pas grand-chose, sinon qu'elle représente 90 % de la production et doit s'achever fin 2025.

Le rapport n'en est pas moins intéressant à deux titres. Il décrit en détail les tâches spontanées conduites à la Cour et dans les juridictions qui concourent à la construction et à la diffusion de la jurisprudence. Il s'interroge sur le rôle de la diffusion de la jurisprudence à l'ère de l'open data, c'est-à-dire dans un univers où chacun a librement accès à toute la production judiciaire. C'est ce deuxième point qui retient notre attention ici. 

Le rapport omet de rappeler qu'avant l'open data, les décisions de justice non signalées par des magistrats pour leur intérêt juridique restaient invisibles du public. Mais au lieu d'envisager l'idée selon laquelle le besoin de signalement tombe, ou se déplace, le rapport aboutit à un paradoxe, où la diffusion sera confiée à Légifrance, selon la toute première de ses 34 recommandations, alors qu'un décret le prévoyait déjà en 2002, tandis que la Cour garderait la responsabilité de l'open data des décisions de justice. Faire l'inverse n'eût-il pas été plus logique ?


 Sempé


"Toutes les décisions ne se valent pas"

 

À en croire le rapport, hiérarchiser les décisions de justice est indispensable, "afin d'éviter que les décisions qui ont un intérêt pour l'évolution du droit soient "noyées" dans la masse des décisions de justice diffusées". Et d'insister : "Toutes les décisions ne se valent pas". Cette remarque, un brin paternaliste, n'est pas seulement vraie pour les décision de justice : toutes les données ne se valent pas en général. Le groupe de réflexion voit des risques de "dérives" et de "débordements", et il envisage le juge manipulé par une présentation tendancieuse de chiffres plutôt que poussé dans ses retranchements sur ses références jurisprudentielles. Il trahit là son scepticisme quant à la capacité des magistrats à exercer leur discernement sur les données produites par des ré-utilisateurs. Il escompte sans doute qu'enrichir les décisions en données dissuaderait les ré-utilisateurs de le faire eux-mêmes, et réduirait ce risque. Avec un sous-entendu : la Cour, en offrant un gage de neutralité, serait la mieux placée pour procéder à cet enrichissement. Mais les risques essentiels sont ailleurs, et infiniment banals. C'est le défaut de qualité des données en entrée et le vice de conception de la méthodologie d'apprentissage.

Il ne s'agit pas ici de contester l'utilité de décisions de justice qui seraient signalées, hiérarchisées ou classées sous tels ou tels angles. Bien au contraire, les ré-utilisateurs attendent certainement des décisions qualifiées "à dire de magistrat". Mais, s'agissant de décisions produites à raison de quelque trois millions par an, on ne peut se désintéresser du comment. Or le rapport ne donne pas d'indice sur la question de savoir si la collecte de ces informations serait effectuée via les outils et procédures propres à la Cour, comme c'est le cas jusqu'à présent des arrêts d'appel, ou si elle dépend des chaînes informatiques du ministère. Quoi qu'il en soit, le groupe de réflexion réclame, dans sa recommandation n° 6, des moyens nouveaux, à chiffrer dans un délai d'un an. Dans ce chiffrage, il conviendra de faire une distinction entre les données qui expriment une appréciation de l'humain, le magistrat, et celles produites par un algorithme. Il faudra peut-être un peu de temps au magistrat pour formuler un avis sur l'intérêt juridique d'un jugement de première instance, tandis que le caractère d'insusceptibilité de pourvoi - parmi les exemples donnés par le rapport - n'aura d'autre coût que le développement et l'exécution du code informatique permettant de fabriquer la donnée. 

 

Des données à calculer ? Par qui

 

Le groupe de réflexion recommande aussi d'enrichir les décisions de justice d'un sommaire (recommandation n° 5). Il se trouve que c'est un domaine où l'intelligence artificielle donne déjà de bons résultats. Plus intéressant encore, il recommande une veille et un signalement des divergences de décisions (recommandations n° 17 et 18) et la mise en place d'une procédure d'arrêt pilote (recommandations n° 21 et 22) qui s'appliquerait aux litiges sériels. Il ne précise pas comment ces dissemblances et ces ressemblances seraient respectivement détectées. Or là aussi, l'intelligence artificielle peut apporter une solution adaptée à ces besoins. Le Conseil d'État teste en l'occurrence la détection de litiges sériels en matière de jurisprudence administrative. 

Les arrêts de la Cour de cassation font autorité, mais pas les données transformées par son informatique. La Cour doit distinguer les données transformées en vue de ses réutilisations propres et celles destinées au public. Certains ré-utilisateurs de l'open data des décisions de justice préfèreront détecter les séries de litiges et re-fabriquer un sommaire par eux-mêmes, surtout si l'intelligence artificielle est leur métier. L'indicateur d'intérêt juridique peut être une données brute ou une donnée calculée : s'il résulte exclusivement de l'appréciation d'un ou de plusieurs magistrats, il est irremplaçable ; s'il est en tout ou partie le résultat d'un traitement fondé sur des règles ou de l'apprentissage, il embarque avec lui les choix méthodologique, les biais et les risques d'erreurs propres à ce traitement. Les débats publics occasionnés par la réglementation des décisions administratives fondées sur un traitement algorithmique et le projet de création d'un barème d'indemnisation des préjudices corporels ont montré que la société est désormais sensible à la transparence des algorithmes. La Cour de cassation semble souhaiter que les ré-utilisateurs des décisions de justice soient soumis à des contraintes, mais, est-elle disposée à les laisser se livrer aux mêmes cas d'usage qu'elle, avec des résultats éventuellement différents ? En d'autres termes, et à supposer qu'elle ait les moyens de sa politique, la Cour est-elle prête à la contradiction ?




1 commentaire:

  1. C'est ben tout cela existe dans la maison d'en face depuis plus de 20 ans...

    RépondreSupprimer