« La liberté, ce bien qui fait jouir des autres biens », écrivait Montesquieu. Et Tocqueville : « Qui cherche dans la liberté autre chose qu’elle même est fait pour servir ». Qui s’intéresse aujourd’hui à la liberté ? A celle qui ne se confond pas avec le libéralisme économique, dont on mesure combien il peut être source de prospérité mais aussi d’inégalités et de contraintes sociales ? A celle qui fonde le respect de la vie privée et la participation authentique à la vie publique ? La liberté devrait être au cœur de la démocratie et de l’Etat de droit. En même temps, elle ne peut être maintenue et garantie que par la vigilance et l’action des individus. Ils ne sauraient en être simples bénéficiaires ou rentiers, ils doivent non seulement l’exercer mais encore surveiller attentivement ses conditions d’exercice. Tâche d’autant plus nécessaire dans une période où les atteintes qui lui sont portées sont aussi insidieuses que multiples.


mardi 20 mars 2018

Veut-on fermer l'Open Data ?

La loi Lemaire du 7 octobre 2016 pour une République numérique confère un fondement législatif au principe d'Open Data des données publiques. En matière d'accès au droit, l'Open Data se définit comme un droit d'accès et de réutilisation des normes juridiques, qu'il s'agisse des règles juridiques comme la loi et les actes réglementaires, ou des décisions rendues par les différentes juridictions. Mis en oeuvre comme un service public gratuit, ce qui n'interdit pas une réutilisation des données à des fins commerciales, l'Open Data s'est développé à partir du site Legifrance.

Si l'accès aux normes législatives et réglementaires est désormais entré à la fois dans le droit et dans les moeurs, il n'en est pas tout à fait de même de l'accès à la jurisprudence, c'est-à-dire à l'ensemble des décisions de justice. Legifrance ne diffuse de manière exhaustive que les décisions des juridictions suprêmes que sont le Conseil d'Etat et la Cour de cassation. L'Open Data peine à s'imposer dans ce domaine et de nombreuses réticences se font jour. En témoignent deux initiatives discrètes, visant à restreindre sa portée.

L'article 18 du projet de loi de programmation pour la justice prévoit ainsi de modifier tant le code de la justice administrative que celui de l'organisation judiciaire, en précisant que "les tiers peuvent se faire délivrer copie des décisions, sous réserve que leur demande ne soit pas abusive ou n'ait pas pour objet ou pour effet la délivrance d'un nombre important de décisions. La délivrance de la copie de la décision est précédée d'une occultation des éléments d'identification des parties et des tiers mentionnés dans la décision, lorsqu'elle est de nature à porter atteinte à la sûreté des personnes ou à l'intimité de la vie privée".

De son côté, Madame Joissains, rapporteur au Sénat du projet de loi sur la protection des données personnelles a déposé un amendement  précisant que les modalités de mise à disposition des décisions de justice "préviennent tout risque de ré-identification des magistrats, des avocats, des parties et de toutes les personnes citées dans les décisions, ainsi que tout risque, direct ou indirect, d'atteinte à la liberté d'appréciation des magistrats et à l'impartialité des juridictions".

Ces deux initiatives révèlent une double préoccupation, d'une part empêcher la communication en masse des décisions de justice, d'autre part imposer des contraintes d'anonymisation extrêmement lourdes, si lourdes qu'elles risquent de se révéler impossibles à mettre en pratique, au moins dans un avenir proche.

La communication en masse des décisions


Si l'on en croit l'article 18, l'accès à la jurisprudence peut s'exercer, sous la réserve que les tiers ne fassent pas de "demandes abusives" ou visant à la "délivrance d'un nombre important de décisions". Les notions employées frappent par leur incertitude. Comment définir une demande abusive ? A partir de combien le nombre de décisions dont la communication est sollicitée devient-il important ? Ces incertitudes sont loin d'être neutres, car elles conduisent à laisser à la juridiction elle-même, voire au greffe, le soin d'apprécier le bien-fondé de la demande.

On ne peut s'empêcher de penser qu'une telle mesure vise avant tout la Legal Tech, c'est à dire les entreprises qui proposent des services de mise à disposition des décisions de jurisprudence, avec l'aide de moteurs de recherches très élaborés apportant à l'utilisateur des résultats aussi adaptés que possibles à la spécificité de sa demande. Comment serait-il matériellement possible  de mettre en oeuvre de tels systèmes en accédant aux décisions une par une, ou deux par deux, selon les choix définis par juridictions elles-mêmes, c'est-à-dire le plus souvent par les greffes ? Il est évident qu'une entreprise qui propose un traitement de masse des décisions de justice voit son activité entravée par une telle restriction.

Le problème est que cette restriction heurte directement le droit à la réutilisation des informations publiques à d'autres fins que celles pour lesquelles elles sont détenues ou élaborées, droit consacré par l'ordonnance du 6 juin 2005 et qui fait partie intégrante du principe d'Open Data.

Le poison. René Magritte. 1939

Anonymisation ou pseudonymisation


Aux termes Les articles 20 et 21 de la loi Lemaire, les "jugements sont mis à la disposition du public à titre gratuit dans le respect de la vie privée des personnes concernées. Cette mise à disposition du public est précédée d'une analyse du risque de ré-identification des personnes". Les bornes de l'Open Data se trouvent dans la vie privée des personnes, principe d'ailleurs conforme tant à la législation française qu'au règlement général sur la protection des données (RGPD) qui entrera en vigueur le 25 mai 2018. Pour assurer l'exercice des droits d'accès et de réutilisation, il convient ainsi d'élaborer des outils, c'est-à-dire des algorithmes, qui exploiteront les décisions de justice, en livreront le contenu sans porter atteinte à la vie privée des personnes. L'exigence est élevée, car l'anonymisation ou la pseudonymisation doit s'accompagner d'une analyse visant à prévenir le risque de ré-identification. 

Il est vrai que, dans ce domaine, la réflexion est bien loin d'être achevée. L'intelligence artificielle permet aujourd'hui d'envisager un traitement quantitatif des données qui pourrait avoir de lourdes conséquences. Le justiciable pourrait savoir si un magistrat est plus indulgent qu'un autre au sein d'un même tribunal, ou s'il accorde des réparations plus élevées, ou pire, si l'avocat qu'il a choisi gagne ses causes, ou s'il les perd. A l'inverse, l'anonymisation complète risquerait peut-être de conduire à une justice irresponsable ? Par ailleurs, à qui doit-on confier cette anonymisation ? La solution la plus évidente serait de la confier au service public lui-même, mais il a peu de moyens financiers et techniques. Le choix de la confier au secteur privé, à ceux là mêmes qui demandent accès ne pourrait se justifier que s'il s'accompagnait d'un véritable contrôle des algorithmes et d'accords de confidentialité assez proches de ceux qui existent, par exemple, dans le domaine de l'armement. Toutes ces questions doivent être posées et des règles doivent être définies.

Pour le moment, les deux initiatives prises dans le projet de loi de programmation comme dans celui sur la protection des données ne vont pas dans le sens de la réflexion mais dans celui d'un accroissement de la contrainte. L'article 18 de la loi de programmation prévoit ainsi une occultation systématique de tout élément d'identification "lorsqu'il est de nature à porter atteinte à la sûreté des personnes ou à l'intimité de la vie privée". L'impératif de sûreté est ainsi ajouté à celui de vie privée. Le problème est que la sûreté désigne juridiquement la situation de la personne qui n'est ni arrêtée ni détenue, ce qui semble bien peu en rapport avec la diffusion des décisions de justice. S'agit-il d'une rédaction un peu trop hâtive ou de la recherche d'une notion permettant d'occulter l'ensemble des décisions ?

Le débat d'intérêt général


L'amendement Joissains va encore plus loin, puisqu'il imposerait de prévenir "tout risque de ré-identification", non seulement des magistrats, des avocats, des parties mais aussi de toute personne citée dans les décisions. Mais comment peut-on prévenir un tel risque ?  Comment empêcher, par exemple, la "ré-identification" du maire de Ploërmel dans le contentieux de la statue du Pape Jean-Paul II installée au milieu de sa ville ? Il faudrait occulter le nom de l'élu, mais aussi celui la ville, celui de l'artiste qui a créé l'oeuvre, et enfin... le nom du pape. Tout cela manque de sérieux car les commentateurs, comme avant eux les magistrats qui ont rendu la décision, ont besoin de connaître les faits à l'origine du litige pour pouvoir mener à bien leur analyse.

Surtout, la question de la liberté d'accès à l'information est posée. Imaginons un instant qu'un homme politique soit condamné pour un détournement de fonds publics, ou pour des propos injurieux ou diffamatoires. Les citoyens se verront-ils refuser l'accès à une décision de justice qui participe à l'exercice du débat public sous le seul motif que l'on peut reconnaître l'homme politique en question ? Depuis un arrêt Dupuis et autres c. France de 2007, la Cour européenne des droits de l'homme affirme régulièrement que l'on "ne saurait penser que les questions dont connaissent les tribunaux ne puissent, auparavant ou en même temps, donner lieu à discussion ailleurs, que ce soit dans des revues spécialisées, la grande presse ou le public en général. A la fonction des médias consistant à communiquer de telles informations et idées s'ajoute le droit, pour le public, d'en recevoir. » L'actualité judiciaire s'analyse comme un élément du débat d'intérêt général, susceptible d'être protégé par l'article 10 de la Convention européenne des droits de l'homme. Une pratique qui consisterait à empêcher toute identification des personnes dans les décisions de justice pourrait ainsi constituer une atteinte à cet article 10. 

Ces deux dispositions ont pour caractéristique commune de vouloir freiner l'Open Data des décisions de justice. Les causes d'une telle méfiance sont certainement multiples. D'une part, l'idée est solidement ancrée que la jurisprudence est un outil à disposition de ceux qui savent, magistrats, avocats etc. Les citoyens n'ont qu'à s'adresser aux experts qui leur expliqueront ce qu'ils doivent comprendre et ne pas chercher à comprendre par eux-mêmes. D'autre part, les juridictions suprêmes entendent conserver leur maîtrise de l'information, y compris dans l'accès aux décisions des juges du fond. Le rapport Cadiet suggère ainsi de placer l'Open Data sous leur pilotage, proposition de nature à les rassurer. Enfin, on affirme souvent que la communication en masse des décisions, en vue de leur réutilisation, est surtout demandée par les Legal Tech, au premier rang desquelles figure Doctrine.fr. Or, l'idée dominante est que ces données publiques ne doivent pas être réutilisées à des fins mercantiles.

Il est vrai que la Legal Tech tire bénéfice de données en principe gratuites. Mais force est de constater qu'elle n'est pas la seule et que cela n'a rien d'illicite.  La Cour de cassation elle-même, peu suspecte de vouloir tirer des bénéfices indus de son activités, gère la base de données JuriCa réunissant les décisions des cours d'appel. Or, si l'accès est gratuit pour les magistrats, il est payant pour les éditeurs juridiques. Ces derniers donnent également accès à leurs bases de données, moyennement paiement d'un abonnement. Ni les uns ni les autres ne sont des philanthropes et tous exercent une activité commerciale parfaitement légitime. Mais, dans l'état actuel des choses, force est de constater que les éditeurs juridiques traditionnels exercent leur activité au sein d'un marché protégé, fruit d'une longue tradition de proximité avec les juridictions suprêmes. Le principe d'égalité exigerait aujourd'hui que les entreprises de la Legal Tech soient traitées de la même manière. Considérées sous cet angle, les deux initiatives déployées au parlement peuvent apparaître comme des instruments de nature à maintenir un statu quo. Des esprits chagrins ou taquins pourraient même y voir l'expression d'un certain lobbying...





1 commentaire:

  1. thuillier-charmet21 mars 2018 à 06:26

    il ne faudrait pas confondre accéssibilité légitime et fondé ouvert au public par du software public avec accés public par intermediaire commercial sur du hardware public de masse ?.

    En moral : tout cela ne serait il pas dans l'ordre naturel des choses d avoir le mérite d'avoir accés a des données public par une responsabilisation et du temps plutot qu'un intermediaire commercial payant rapide ?

    Mr thuillier-charmet

    RépondreSupprimer