L’utilisation de plus en plus répandue d’outils d’intelligence artificielle, en particulier ce que l’on appelle lA générative, atteint tous les domaines d’activité, publics ou privés.
Et cela affecte, bien sûr, aussi le domaine judiciaire, puisque l’apparente utilité de ces outils dans un secteur qui fonde une grande partie de son activité sur la préparation des écrits, semble évidente.
Cependant, comme cela a déjà été prévenu à de nombreuses reprises, même par les entreprises elles-mêmes qui développent ces outils, leur utilisation n’est pas exempte de la possibilité de générer des textes formellement impeccables, mais techniquement incomplets, dépassés ou totalement erronés, communément appelés hallucinations
Les conséquences de l’utilisation non supervisée de ces outils par les avocats sont déjà connues. Mais moins ceux qui découlent de cette même utilisation par le personnel de l’Administration de la justice.
Toutefois, les conséquences des erreurs que ces personnels peuvent encourir en raison de l’utilisation non informée ou non supervisée de ces outils, dans un domaine aussi technique et, en même temps, aussi sensible aux droits des personnes que le judiciaire, peuvent être très graves.
L’utilisation d’outils d’IA dans le domaine judiciaire pose des défis et des risques spécifiques, en plus de ceux strictement techniques liés à l’élaboration d’arguments erronés ou à l’identification de fondements juridiques ou de précédents jurisprudentiels inexistants ou inexistants. On peut citer la génération possible de biais, la protection des données sensibles, la transparence des algorithmes et le respect des garanties procédurales.
Compte tenu de cette réalité, ce sont déjà diverses organisations et organes judiciaires qui ont élaboré des directives ou des lignes directrices sur l’utilisation des outils d’IA par le personnel de l’Administration de la justice.
Sans inclure une proposition de lignes directrices sur l’utilisation de l’IA dans les tribunaux, présentée par l’UNESCO en mai 2025 (1), uniquement à notre niveau européen, nous avons déjà le rapport « Avancer l’avenir: l’utilisation de la technologie d’assistance dans le système judiciaire », du Conseil consultatif des juges européens (CCJE), du 1er décembre 2023 (2), et le document « Utilisation de l’intelligence artificielle (IA) Générative par les professionnels » (3).
Le premier document prévient que : « l’utilisation de l’IA pour aider à la gestion des affaires ou dans les décisions judiciaires peut manquer de transparence quant à ce qui est utilisé et comment l’information est utilisée par cette technologie. Moins de transparence pourrait entraver la responsabilité explicative et de recours du pouvoir judiciaire. Cela peut remettre en cause l’indépendance judiciaire, en plus de la légitimité du pouvoir judiciaire, tant individuellement qu’institutionnellement. »
Il ajoute ensuite que « l’utilisation d’outils de données, en particulier si elle soutient l’IA, peut affecter négativement la capacité du pouvoir judiciaire à assurer une procédure équitable pour les parties. Les outils de données telles que les chatbots peuvent, par exemple, produire de faux résultats, c’est-à-dire qu’ils peuvent créer une jurisprudence fictive qui entraîne des erreurs judiciaires. L’utilisation de l’IA peut également nuire au contrôle exercé en portant atteinte à la justice dans l’attribution des affaires ».
Alors que la Commission européenne pour l’efficacité de la justice (CEPEJ) le souligne « toute intelligence artificielle est profondément déterminée par les données avec lesquelles elle a été formée: par conséquent, elle n’est jamais neutre et, au contraire, elle intègre tous les biais, inexactitudes, lacunes ou défaillances contenues dans la base de données de formation et/ou les préjugés culturels de ceux qui ont conçu le système et guidé leur formation, en invalidant certaines de leurs réponses. Il peut même y avoir des cas où le biais a été délibérément incorporé dans l’algorithme. [En outre] L’opacité dans la programmation de l’algorithme et dans la connexion des données sous-jacentes génère une plus grande incompréhensibilité et, par conséquent, des difficultés à vérifier les réponses fournies. (Quels sont les risques ?)
Mais dans un environnement encore plus proche, en juin 2024, le Comité technique d’Etat de l’Administration judiciaire électronique (CTEAJE), a publié sa « Politique d’utilisation de l’intelligence artificielle dans l’administration de la justice » (4).
Un document adressé à tous les travailleurs de l’Administration de la Justice et au personnel des fournisseurs d’outils d’intelligence artificielle, par lequel une série de critères minimums sont fixés afin d’assurer une utilisation responsable, légale et éthique de l’Intelligence Artificielle dans le domaine de l’Administration de la Justice, avec, y compris, une Annexe avec des définitions, ainsi qu’une ventilation des utilisations acceptées et autres utilisations interdites.
Enfin, le dernier développement dans ce domaine nous est venu des États-Unis, en particulier de l’État de New York.
Le 8 octobre, (le juge Zayas, président administratif du New York State Unified Court System, a annoncé l’approbation de la « Politique intérimaire sur l’utilisation de l’intelligence artificielle » devant les tribunaux de l’État.
Cette politique est le résultat du travail d’un comité que le juge Zayas a formé en avril 2024 pour examiner les problèmes complexes liés à l’utilisation de l’IA devant les tribunaux. Son but est de fournir des principes directeurs clairs pour l’utilisation responsable et éthique de l’IA dans le système judiciaire unifié.
Par conséquent, elle s’applique à tous les juges, magistrats et employés non judiciaires du système de justice de l’État, et opère pratiquement partout où un appareil détenu ou lié à ce système est utilisé ou un travail connexe est effectué sur n’importe quel appareil.
Bien qu’il s’agisse d’un document pertinent, ce n’est pas le premier des États-Unis à être publié sur cette question.
Déjà en août 2024, le Centre national des ressources judiciaires (NCCR), a publié l’« Orientation pour la mise en œuvre de l’IA devant les tribunaux » (5) et, plus récemment, en septembre 2025, la branche judiciaire (judiciaire) de l’État de Californie, a approuvé la « norme 10.80. Utilisation de l’intelligence artificielle générative par les huissiers de justice » (6).
Et la même année, bien que non dans la sphère officielle, le juge Herbert B Dixon jr, ainsi qu’un groupe de juges et d’universitaires américains, ont publié un guide pertinent intitulé « Navigating AI in the Judiciary: New Guidelines for Judges and Their Chambers » (7).
Ce document souligne que « dans ce paysage en évolution rapide, les responsables judiciaires et ceux qui travaillent avec eux doivent veiller à ce que tout recours à l’IA renforce, plutôt que compromet, l’indépendance, l’intégrité et l’impartialité du pouvoir judiciaire. Les fonctionnaires judiciaires doivent maintenir l’impartialité et l’ouverture d’esprit pour assurer la confiance du public dans le système judiciaire. L’utilisation d’outils d’IA ou de GenAI devrait renforcer, et non diminuer, cette obligation essentielle ».
Le document des tribunaux de New York, que nous connaissons maintenant, introduit une explication du fonctionnement de l’IA, en particulier de l’IA générative, ainsi que de ses utilisations potentielles dans le domaine judiciaire et des risques découlant de ces utilisations.
Parmi les applications, il est souligné que « les outils d’IA générative peuvent être utilisés pour rédiger des documents tels que des mémos de politique, des lettres, des discours ou des descriptions de travail. L’IA peut être utile pour générer des idées, démarrer un document et suggérer une écriture appropriée. L’IA générative peut également être utilisée pour la communication avec le public. Les plateformes d’IA peuvent aider les utilisateurs à écrire clairement, dans un langage simple et accessible. Un utilisateur peut télécharger du contenu, comme le texte d’une page Web proposée ou la rédaction d’une déclaration de politique, et demander au programme d’IA de modifier la langue pour la rendre plus simple, plus concise et plus facile à comprendre. Le programme d’IA peut être invité à écrire pour un public spécifique ou pour un niveau de lecture donné. L’IA générative peut également être utilisée pour résumer des documents détaillés ou de grands ensembles de données dans la préparation de rapports administratifs ou de formulations juridiques analytiques ».
Et parmi les problèmes qui peuvent découler de leur utilisation il est possible de trouver la fourniture d’informations incorrectes ou inventées, les biais et la confidentialité des informations.
Par conséquent, le Guide propose différents principes d’utilisation :
- L’IA ne doit pas être considérée comme un substitut au jugement humain, à la discrétion ou à la prise de décision. Tous les utilisateurs d’IA dans le système judiciaire de l’État sont responsables de leur travail final.
- Il est essentiel de veiller à ce qu’aucun matériel ne semble refléter des préjugés, stéréotypes ou préjugés préjudiciables dans tout travail de l’UCS.
- Les règles régissant la sécurité et la confidentialité des dossiers judiciaires s’appliquent pleinement à l’utilisation de la technologie de l’IA. Il convient de supposer que toutes les informations saisies sur une plate-forme publique d’IA générative, telle que ChatGPT, seront rendues publiques immédiatement. La technologie de l’IA devrait être utilisée de manière à éviter la divulgation publique d’informations confidentielles, privées ou sensibles.
- Des exemples de ces informations comprennent, sans toutefois s’y limiter, les numéros de dossier, les noms des parties, les adresses et les dates de naissance.
- Les documents déposés ou déposés pour dépôt auprès d’un tribunal sont également considérés comme confidentiels, même s’ils sont classés comme publics au moment de la soumission, car le dossier peut être scellé à l’avenir ou les documents n’ont peut-être pas été correctement rédigés pour dissimuler des informations sensibles. Alors que, dans ces cas, des informations confidentielles ont déjà été divulguées au public, en l’introduisant dans le programme public d’IA modèle, son exposition est permanente.
- La propriété intellectuelle de l’UCS est un autre type d’information qui ne devrait pas être divulguée publiquement. Un exemple de cette divulgation est le code source écrit en interne qui est introduit dans un système d’IA modèle public par des développeurs de logiciels travaillant à l’intérieur ou à l’extérieur de l’UCS.
En conséquence, les règles établissent les exigences et restrictions suivantes sur l’utilisation de l’IA par le personnel de l’Administration de la justice de l’État:
- Les utilisateurs ne peuvent utiliser que les produits d’IA générative approuvés par la Division de la technologie et de la recherche judiciaire du système qui sont identifiés dans l’annexe ci-jointe.
- Tous les juges et les employés non judiciaires du système de justice de l’État ayant accès aux ordinateurs doivent suivre un cours de formation initiale, ainsi qu’une formation continue, sur l’utilisation de la technologie de l’IA. Aucun produit d’IA générative ne peut être utilisé sur un appareil détenu ou lié au système d’État, ou pour tout travail qui y est lié, jusqu’à ce que l’utilisateur ait terminé le cours de formation initiale.
- Aucun utilisateur ne peut entrer dans un programme d’IA générative qui ne fonctionne pas avec un modèle privé – en rédigeant une demande, en téléchargeant un document ou un fichier, ou autrement – des informations confidentielles, privées ou privilégiées, y compris des informations personnelles identifiables ou des informations de santé protégées ou inappropriées pour la divulgation publique. À cette fin, un modèle qui est sous le contrôle du système de justice de l’État et qui ne partage pas de données avec un LLM public est considéré comme un modèle privé.
- Aucun utilisateur ne peut télécharger sur un programme d’IA générative qui ne fonctionne pas avec un modèle privé tout document qui a été déposé ou déposé devant le tribunal, même si le document est classé comme public.
- Tout utilisateur qui utilise un programme d’IA générative pour produire un document ou tout autre contenu devrait l’examiner en profondeur et effectuer les révisions nécessaires pour s’assurer qu’il est exact et approprié, et qu’il ne reflète pas les préjugés, stéréotypes ou préjugés injustes.
- Aucun utilisateur ne peut installer sur un appareil appartenant au système de justice d’État tout logiciel nécessaire à l’utilisation d’un programme d’IA générative, ou utiliser un appareil appartenant au système pour accéder à un tel programme qui nécessite le paiement, l’abonnement ou l’acceptation des conditions d’utilisation, à moins que le système n’ait donné accès à ce programme.
- Les outils d’IA ne peuvent pas être utilisés sur un dispositif appartenant à un système à des fins personnelles non liées au travail de celui-ci.
- L’approbation d’un produit d’IA générative par la gestion technique du système (DoTCR) implique que le produit est technologiquement sûr, mais n’implique pas nécessairement que, pour une tâche spécifique, son utilisation est appropriée ou appropriée. Une telle approbation par le DoTCR n’empêche aucun juge ou superviseur du système d’interdire l’utilisation de ce produit pour une tâche spécifique par une personne sous sa supervision.
En bref, la technologie de l’IA devrait être utilisée d’une manière compatible avec les obligations éthiques des juges et des employés non judiciaires. « Comme tout le contenu produit par l’IA générative, le résultat doit être soigneusement revu et l’utilisateur doit s’assurer que le langage est inclusif, respectueux et précis. »
Enfin, le document contient dans son annexe la liste des seules demandes d’IA générative autorisées à recourir aux juges et au personnel des tribunaux de l’État.
—
- (1) «Projet de directives pour l’utilisation des systèmes d’IA dans les tribunaux», https://unesdoc.unesco.org/ark://48223/pf0000393682
- (2) https://www.podermidrical.es/stfls/CGPJ/RELATIONS%20INTERNATIONAL/COUNCIL%20CONSULTIVE%20DE%20JUCES%20EUROPEOS/INFORMES%20CCJE/FICHERO/20231212%20CCJE%20Opinion%20N26_202_final_fr.pdf
- (3) Commission européenne pour l’efficacité de la justice (CEPEJ), «Utilisation de l’intelligence artificielle générative (IA) par les professionnels de la justice dans un contexte lié au travail», https://rm.coe.int/cepej-gt-cyberjust-2023-5final-en-note-on-generative-ai/1680ae8e01
- (7) https://www.thesedonaconference.org/sites/default/files/publications/Navigating%20AI%20in%the%20Judiciaire%2C%20Journal%20Version_0.pdf