Dans deux jugements de décembre 2025, le tribunal administratif de Grenoble se montre particulièrement sévère.
L'utilisation de l'IA par les requérants
La seconde requête grenobloise du 9 décembre demande l'annulation de la saisie du chien du requérant, ce dernier étant accusé de privation de soins à un animal domestique, contravention de 4è classe prévue par l'article R 215-4 § 1 du code rural. Pour contester la saisie de son chien, confié à une association, il a déposé une requête et généré des mémoires avec le service Télérecours Citoyens. Le tribunal écarte le recours comme porté devant une juridiction incompétente, car l'IA s'est trompée de juge. Il s'agissait concrètement de contester une ordonnance pénale prise par le tribunal de police, et seul le juge judiciaire pouvait être saisi.
Le tribunal aurait pu s'en tenir à cette décision d'incompétence, mais il n'a pas hésité à dire ce qu'il pensait de l'outil d'intelligence artificielle utilisé. Il précise que le contenu du recours et des mémoires produits n'est pas "juridiquement cadré, contrairement à ce que prétend l'outil utilisé dans un échange avec le requérant, que (celui-ci) n'a même pas pris la peine d'enlever du document adressé au tribunal".
Ces deux recours grenoblois ont pour point commun d'avoir été déposés par des requérants qui n'ont pas utilisé les services d'un avocat, ce qui est parfaitement leur droit. De fait, le juge sanctionne des erreurs qui certes proviennent de l'IA, mais qui pourraient aussi provenir d'un requérant dépourvu de connaissances juridiques. Les erreurs sont simplement neutralisées, avec comme seule conséquence le rejet de la requête sans plus.
Patrick Chappatte. Le Temps. Genève. 21 septembre 2024
L'utilisation de l'IA par le conseil
Même lorsque la requête est déposée par un avocat, le juge ne se prive pas de faire remarquer les erreurs dues à une absence de contrôle dans l'usage de l'IA. Dans un jugement du 29 décembre 2025, le tribunal administratif d'Orléans mentionne ainsi qu'il y a "lieu de faire remarquer au conseil de M. X la nécessité de vérifier les décisions juridictionnelles citées, au demeurant non produites, avant de saisir le juge". Et le juge de citer une quinzaine de références entièrement fausses, avant de conclure qu' "Il y a lieu d'inviter le conseil du requérant à vérifier à l'avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une "hallucination" ou une "confabulation". L'ironie est cruelle, mais il faut reconnaître qu'elle s'exerce à l'encontre d'un professionnel du droit qui n'a pas l'excuse de l'ignorance, contrairement au requérant lui-même, peu versé dans la procédure contentieuse.
Quoi qu'il en soit, les juges prennent garde de sanctionner pour des motifs de droit commun, incompétence ou absence de moyen sérieux. Ce n'est pas l'usage de l'IA qui est visée, mais l'absence de prudence et de contrôle dans cet usage. Les erreurs relevées ne sont d'ailleurs pas spécifiques à l'IA, et l'on a déjà vu des avocats citer de fausses jurisprudences. Considérée sous cet angle, l'IA se borne à automatiser des erreurs que le juge sanctionne depuis toujours. Conformément au droit commun, le juge se borne à neutraliser le moyen ou l'estime inopérant.
Aux Etats Unis, la sanction pour faute
La situation est différente aux États Unis, où les juges sanctionnent directement ce type de pratique.
L'affaire de référence est l'arrêt Mata v. Avianca, jugée en 2023 par le United States District Court for the Southern District of New York. A l'appui d'une requête dirigée contre une compagnie aérienne par un homme blessé au genou par un chariot de service, les avocats avaient produit un mémoire citant six décisions de justice totalement inexistantes. Les juges ont donc dénoncé des raisonnements plausibles mais inventés, et des citations cohérentes mais entièrement fabriquées. Par ailleurs, les avocats ont persisté dans leurs analyses, alors même que le juge leur avait demandé de produire les décisions utilisées en références.
Pour toutes ces raisons, les juges qualifient ces références de "bogus judicial décision", formule que l'on pourrait traduire par "pseudo décision de justice". Les avocats sont donc condamnés à une amende de 5 000 dollars, à laquelle il faut ajouter un rappel sévère de leurs obligations et une diffusion très large de la décision dans les revues juridiques américaines. Cette rigueur peut évidemment s'expliquer par le rôle essentiel de l'avocat dans une procédure accusatoire. Sa négligence porte en effet une atteinte grave au due process of Law.
Alors que les juges français ne mentionnent que rarement le recours à l'IA, les juges américains le stigmatisent explicitement. Par voie de conséquence, les juges français se bornent à neutraliser l'erreur, alors que les juges américains la qualifient expressément et prononcent une sanction. Quelle est la solution la meilleure ? A ce stade, il est difficile de se prononcer car nous sommes confrontés aux toutes premières décisions de justice, issues des juges de fond. La Cour de cassation et le Conseil d'État se prononceront certainement, dans quelques années. En attendant, il est vivement conseillé aux requérants et aux avocats de vérifier leurs sources, mais n'est-ce pas un principe qu'ils devraient toujours respecter, avec ou sans IA ?


Aucun commentaire:
Enregistrer un commentaire