L'utilisation de l'intelligence artificielle générative par les juges: leçons tirées de l'affaire argentine et de sa projection en Espagne


L'utilisation de l'intelligence artificielle générative par les juges: leçons tirées de l'affaire argentine et de sa projection en Espagne
Une peine argentine vient de marquer un avant et un après: un juge pénal a utilisé l'intelligence artificielle générative pour rédiger une partie de sa résolution judiciaire, et la haute juridiction a annulé l'ensemble du procès. Dans cet article, Ricardo Oliva León extrapole le cas à l’Espagne en analysant les implications de ce précédent. Depuis le Règlement européen sur l’intelligence artificielle, le Règlement général sur la protection des données (RGPD) et les règles qui développent les principes et les garanties procédurales, l’auteur examine les limites entre l’assistance technologique et la délégation inappropriée à une machine à moteur détenue par les tribunaux judiciaires, mettant en garde contre le biais d’automatisation, la perte de traçabilité décisive et d’éventuelles violations du RGPD. Il se termine par un message fort: l'intelligence artificielle peut toujours assister, mais ne remplacera jamais le juge ; la motivation judiciaire doit rester un acte humain, responsable et explicable. Cependant, il reconnaît que dans certains types d'essais très spécifiques (procédure de recouvrement), il peut être conseillé d'assouplir cette règle. Une lecture incontournable pour comprendre comment l’intelligence artificielle peut transformer – et tester – l’essence même de la justice.

I. Contexte d’une phrase pionnière

Le 15 octobre 2025, la Chambre criminelle d’Esquel (Province de Chubut, Argentine) a prononcé une peine de pionnière sur l’utilisation abusive de l’intelligence artificielle générative (GenIA) par le juge de première instance. Les signataires de cette peine approuvée à l’unanimité ont été les membres de la Chambre, les magistrats, Carina Paola Estefanía, Martín Eduardo Zacchino et Hernán Dal Verme, qui ont chacun basé leur vote séparément.

Le contexte de cette affaire est le suivant :

  • Le défendeur R.A.P., a été condamné en première instance à 2 ans et 6 mois de prison effective pour un crime de vol simple.
  • La défense a fait appel de l’évaluation arbitraire de la preuve, de la nullité d’une expertise basée sur des vidéos de caméra de sécurité et des erreurs dans l’interprétation du droit pénal.

Lors de l’examen du jugement de première instance, la Chambre criminelle a détecté la phrase suivante dans cette résolution: « Ici, vous avez le point IV réédité, sans citations et prêt à copier-coller ».

Cette expression a révélé que le juge de première instance a clairement utilisé un assistant d’IA générative pour rédiger une partie substantielle de la peine, à savoir, celle qui fait référence à la validité de certaines preuves d’accusation pertinentes (vidéos et expertise criminelle).

L’arrêt attaqué ne précise pas quel outil d’IA générative le juge a utilisé (ChatGPT, Gemini AI, Claude AI, Jasper AI, Perplexity AI ou Deepseek AI ?), ni quelles instructions (« prompts ») il a donné à l’intelligence artificielle (IA). Cela a empêché la portée réelle de l’intervention automatisée en matière d’IA dans la décision de justice contestée.

La Chambre pénale d’Esquel a considéré que le juge de première instance:

  • a violé le principe d’un juge naturel en déléguant indûment la fonction juridictionnelle à un système d’IA ;
  • a violé la procédure régulière en incorporant un texte écrit par une IA sans contrôle ni communication aux parties ;
  • a omis de protéger la confidentialité des personnes susmentionnées en incluant de vrais noms dans le libellé assisté ;
  • a engagé la traçabilité et le fondement logique et juridique requis par la Constitution argentine et le Code de procédure pénale correspondant.

À la suite de ce qui précède, l’arrêt de l’arrêt de la Chambre d’Esquel :

  • déclare la nullité du jugement de première instance et de procès ;
  • ordonne un nouveau procès devant un autre juge de première instance ;
  • envoie la procédure à la Haute Cour de justice de Chubut pour enquêter sur l’utilisation abusive de l’IA par le juge par saisi.

II. Que se passe-t-il si un juge pénal espagnol (ou un autre juge judiciaire) encourait une pratique similaire à celle du juge de première instance argentin?

La réponse à cette question m’oblige à considérer quatre perspectives juridiques d’analyse :

       1. Problèmes du point de vue du règlement de l’Union européenne sur l’intelligence artificielle

Conformément au règlement 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, le règlement sur l’intelligence artificielle (LOI 16665/2024) (ci-après, le RIA) les systèmes d’IA utilisés dans le domaine de l’administration de la justice et, en particulier, les systèmes d’IA destinés à être utilisés par une autorité judiciaire pour aider à sa tâche d’enquête et d’interprétation des faits et de la loi, sont considérés comme des systèmes d’IA à « risque élevé » (article 6.2)

Les systèmes d’IA à haut risque par leur nature même avant d’entrer sur le marché ou en exploitation doivent répondre à un certain nombre d’exigences obligatoires (avoir un système de gestion des risques adéquat; leurs données de formation, de validation et de test doivent répondre à certains critères de qualité; mettre à disposition la documentation technique du système d’IA avant son introduction sur le marché; assurer un niveau de traçabilité et d’enregistrement de son système d’exploitation; ils doivent être conçus et développés afin qu’ils puissent être efficacement surveillés par des personnes physiques). Avec ces exigences, les systèmes d’IA à haut risque devraient pouvoir surmonter une évaluation de la conformité (article 43 de l’IRA) et, une fois sur le marché, les autorités nationales les surveilleront (article 70 de la RIA).

« Les juges et les magistrats en Espagne, bien qu’ils puissent parfaitement utiliser l’IA dans leur travail quotidien comme aide ou complément à leur travail, ne devraient utiliser que ces systèmes qui prouvent qu’ils ont passé l’évaluation de conformité correspondante ».

Du point de vue de la RIA, il est vrai que « l’IA générative », avant d’envisager correctement un « système d’IA » est plutôt un « modèle d’IA à usage général » (c’est-à-dire un modèle d’IA entraîné avec un grand volume de données capable d’effectuer avec compétence une variété de tâches différentes). Cependant, si une IA générative est officiellement adaptée et utilisée pour l’administration de la justice, à mon avis, les mêmes exigences imposées à tous les systèmes d’IA à haut risque devraient lui être appliquées pour la simple raison qu’elle agirait en tant que telle. Selon les articles 52 et 53 de la RIA, les «modèles d’IA à usage général» sont soumis à un régime différencié, étant peaufinés pour la justice, ils entreraient dans la portée à haut risque.

Par conséquent, les juges et les magistrats en Espagne, bien qu’ils puissent parfaitement utiliser l’IA dans leur travail quotidien comme aide ou complément à leur travail, ne devraient utiliser que des systèmes d’IA qui prouvent qu’ils ont passé l’évaluation de la conformité correspondante.

       2. Risque d’être affecté par ce que l’on appelle le « biais d’automatisation »

Le juge de première instance dont la peine a été annulée (et on peut dire la même chose d’un juge espagnol qui utilise l’IA générative d’une manière similaire à la façon dont son homologue argentin a fait) a subi ce que l’on appelle un « biais d’automatisation ». Ce biais se produit lorsque l’on effectue la « surveillance humaine » du système d’IA n’est pas conscient que les résultats générés par un système d’IA à haut risque et, en particulier, les systèmes d’IA qui sont utilisés pour fournir des informations ou des recommandations afin que les personnes physiques prennent une décision, comme lorsque l’IA est utilisée pour l’émission d’un jugement, ne peuvent pas être automatiquement ou examinées de manière excessive. Ceci est rappelé à l’article 14.4.b) de la RIA.

Et c’est que les résultats de la sortie d’une IA Générative peuvent être des « hallucinations » (ici j’inclus, la mauvaise interprétation des données, l’invention des sources d’information, les « sorties » qui sont le produit de biais lors de la formation des données, et les erreurs générées à la suite d’un manque de contexte) afin que le juge ne puisse pas s’appuyer sur le résultat de l’IA sans effectuer la bonne supervision.

       3. Problèmes liés à la protection des données personnelles

Étant donné que les systèmes d’IA générative sont axés sur les données, une fois que les données personnelles font partie de l’ensemble d’entraînement de l’IA, elles contribueront à la formation du modèle d’IA et influenceront ainsi les résultats que l’IA jette. Ces données pourraient être dispersées dans les résultats demandés par différentes personnes utilisant la même IA Générative, de sorte que ces personnes auront accès aux données personnelles sans le consentement de leurs propriétaires d’origine, qu’elles ne connaissent pas non plus nécessairement. C’est un problème du point de vue de la vie privée.

Compte tenu de la complexité du contrôle de la façon dont les données personnelles sont utilisées dans les modèles d’IA générative (c’est pourquoi il est fortement recommandé de lire précédemment les conditions d’utilisation et les politiques de confidentialité correspondantes), la gestion et le suivi de son utilisation peuvent devenir une tâche titanesque. En outre, il convient de noter qu’aucune décision d’un tribunal ne devrait être fondée uniquement sur un traitement « automatisé », à moins que les conditions décrites à l’article 22 du règlement 2016/679 du Parlement européen et du Conseil du 27 avril 2016 (LOI 6637/2016), le règlement général sur la protection des données (ci-après dénommé le RGPD) soient respectées. Toute « partie » dans un processus judiciaire qui est une personne physique soumise au traitement automatisé de vos données a le droit d’être informée de l’existence d’un tel traitement par le juge. Elle doit également avoir le droit de recevoir des informations pertinentes sur la logique sous-jacente de la décision, ainsi que sur l’importance et les conséquences attendues d’une telle décision automatisée et de pouvoir la contester.

D’une manière générale, l’attention et la réponse à l’exercice des droits des détenteurs de données personnelles deviennent difficiles avec l’utilisation de l’IA générative. Je parle notamment des droits d’accès, de rectification, de suppression, d’opposition et de limitation du traitement, reconnus par le RGPD. Par conséquent, les juges en Espagne, lorsqu’ils utilisent l’IA générative, devraient prendre les précautions nécessaires pour ne pas utiliser les données personnelles des parties et les informations confidentielles dans leurs « prompts » et leurs entrées.

       4. Problèmes liés aux garanties procédurales

Le recours à l’IA dans la justice doit être aligné sur les principes fondamentaux qui régissent tout processus judiciaire et qui sont une garantie d’un procès équitable ou d’une procédure régulière: juge naturel, égalité des armes, impartialité et procédure contradictoire (article 24 de la Constitution espagnole (LAYER 2500/1978) et les règles de procédure qui la développent comme la loi organique de la magistrature, le droit de procédure pénale et le droit de procédure civile.

Premièrement, l’utilisation de l’IA, comme l’a fait le juge argentin (et la même chose s’il avait été un juge espagnol), rend impossible de déterminer quelle partie de sa décision devrait être attribuée au juge et quelle partie à l’IA. Nous sommes donc confrontés à une décision mal justifiée ou mal motivée qui affecte le droit de la défense.

Deuxièmement, le juge ne peut pas déléguer tout ou partie de son pouvoir de décision à un outil d’IA. Si la décision du juge était fondée sur les éléments résultant d’une IA générative, cela devrait être dûment justifié et expliqué dans sa résolution.

Notez que découvrir pourquoi l’IA générative a généré un résultat concret pour résoudre un différend spécifique pourrait être un objectif mathématiquement impossible. La logique sous-jacente à la « sortie » peut être inexplicable même pour le propre programmeur du logiciel d’IA. La motivation judiciaire relève de la seule responsabilité du juge.

III. Et si la décision de justice était entièrement dictée par l’intelligence artificielle ?

En dehors de ce qui précède, l’IA générative provoquera inévitablement la configuration de nouvelles « architectures » procédurales ou judiciaires dans certains domaines ou questions (je parle, par exemple, des procédures de recouvrement), où je vois qu’il est conseillé de confier la résolution d’un différend dans ce domaine entièrement à une IA. Les parties, dans ce cas, doivent avoir droit à la deuxième instance, où elles peuvent discuter et réfuter les résultats de l’IA, en demandant une intervention humaine (d’un vrai juge).

Bien qu’il existe déjà la Charte européenne d’éthique sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires approuvée par la Commission européenne pour l’efficacité de la justice (CEPEJ) en 2018, il serait souhaitable que le Conseil général de la magistrature approuve des directives éthiques et techniques similaires à l’accord de plénière 5435/25 de la Haute Cour de justice de Chubut, qui réglementent l’utilisation responsable de l’IA générative dans l’exercice de la fonction juridictionnelle.

Ricardo Oliva León
Avocat expert en réglementation de l'intelligence artificielle et associé directeur chez Algoritmo Legal