Le rapport, rédigé en collaboration entre des juristes et des scientifiques, s’est penché sur la conciliation des systèmes d’IA avec les droits fondamentaux, des questions relatives au développement durable, du respect de la réglementation européenne, ainsi que les impacts potentiels pour les métiers au sein de l’institution judiciaire.
L’IA : un outil au service de l’activité judiciaire
Le rapport pose d’emblée les enjeux : l’IA est un levier pour gagner en efficacité et en qualité. Elle permet d’automatiser des tâches répétitives à faible valeur ajoutée, tout en soutenant la capacité de la Cour à remplir ses missions fondamentales d’unification du droit et de régulation de la jurisprudence.
Grâce aux ressources internes et au savoir faire technique de la Cour trois algorithmes ont été développés en interne :
- un outil de pseudonymisation des décisions très performant dès 2019,
- un outil d’orientation automatique des mémoires ampliatifs en 2020 complétant l’outil de 2019 “lors d’un doute sur le résultat de la pseudonymisation automatique” et,
- un projet en cours de développement baptisé « Divergences » visant à détecter les divergences d’interprétation entre les chambres ou sections de la Cour.
Ces premiers développements témoignent du potentiel de l’IA lorsqu’elle est mise au service de l’analyse, de l’organisation et de la cohérence de la jurisprudence.
L’identification de plusieurs cas d’usage de l’IA pour la Cour de cassation
L’intégration de systèmes d’IA au service des institutions et administrations françaises a demandé dans un premier lieu de “définir des stratégies internes” c’est-à-dire une feuille de route de développement des systèmes d’IA. Le rapport souligne que “ces feuilles de route ont permis de définir plusieurs cas d’usage à développer”.
Le groupe de travail identifie, à partir du cycle de vie d’une affaire devant la Cour de cassation, trois niveaux de cas d’usage :
- Dans un premier temps, le rapport traite de cas d’usages transversaux de structuration et d’enrichissement.
- Ensuite, il a envisagé l’usage de l’exploitation des écritures des parties qui offre la possibilité de mieux repérer les connexités matérielles ou intellectuelles entre les pourvois, de mieux orienter les pourvois vers les chambres compétentes, de faciliter la première analyse du dossier en évaluant sa complexité, ou de faciliter la compréhension du litige en cartographiant les éléments clés.
- Enfin, le groupe de travail relève que l’IA pourrait être utilisée dans un but d’aide à la recherche et à l’exploitation de données documentaires.
Parmi ces trois niveaux de cas d’usage, le rapport classe les projets d’IA selon leur complexité, leur coût et les risques associés. Il envisage les cas d’usage suivants :
- Les cas d’usage simples, rapidement déployables, sans difficulté juridique ou éthique, offrant des gains fonctionnels importants: la structuration automatique des documents juridiques, l’aide à la rédaction, la recherche dans les bases de données, l’analyse des écritures des parties, et les moteurs de recherche sémantique.
- Les cas complexes, plus ambitieux techniquement et juridiquement, nécessitent un investissement important mais justifié. Ils visent la détection de précédents dans les écritures, le rapprochement de jurisprudence, la jonction d’affaires connexes, et la création d’assistants de recherche juridique conversationnels (RAG).
- Enfin, les cas les plus prometteurs, mais présentant des problématiques éthiques, juridiques et techniques. C’est notamment le cas de l’aide à la rédaction fondée sur l’analyse d’affaires précédentes ou encore l’automatisation partielle des litiges sériels.
Il est important de noter que le groupe souligne l’absence de nécessité d’aide à la décision. Il estime les magistrats suffisamment compétents et spécialisés. De plus, ce principe “poserait des questions éthiques et juridiques majeures à la Cour”.
Une évaluation des cas d’usage encadrée et exigeante
La Cour de cassation pose une méthodologie et des critères stricts d’évaluation des projets d’IA. Elle repose sur cinq critères : éthiques, juridiques, fonctionnels, techniques et économiques.
Pour les définir, le groupe de travail s’est appuyé sur plusieurs textes de références comme la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires adoptée en décembre 2018, le Règlement européen sur l’IA (Règl. (UE) n° 2024/1689, 13 juin 2024) et le Règlement général de la protection des données (RGPD).
Les cas d’usage identifiés ont été évalués à l’aune de plusieurs critères tels que le respect des droits fondamentaux, l’apport en termes de qualité et d’efficacité, la faisabilité technique, le coût et l’impact environnemental.
Une démarche reproductible et ouverte
Si la réflexion a été menée pour les besoins propres de la Cour, plusieurs des cas d’usage proposés pourraient être mutualisés avec les juridictions du fond. Le rapport encourage la diffusion de sa méthode d’évaluation pour inspirer d’autres initiatives dans le monde judiciaire.
Elle incite à la mise en place de partenariats institutionnels et scientifiques (notamment avec le Conseil d’État, le Sorbonne Cluster for Artificial Intelligence), à l’échelle nationale et internationale. Parmi ces initiatives, le projet PostGenAI@Paris, lancé par Sorbonne Université le 1er avril 2025, se distingue par ses perspectives particulièrement prometteuses. Ce projet vise à établir un pôle d’excellence internationale dédié à l’IA post-générative.
Une exigence éthique et une formation renforcée
Le groupe de travail met l’accent sur l’importance d’une démarche éthique rigoureuse. À ce titre, le rapport recommande la création d’un comité consultatif d’éthique qui serait notamment consulté sur l’impact sur les droits humains des systèmes d’intelligence artificielle utilisés par les magistrats.
Le rapport souligne à plusieurs reprises l’importance de la formation et de la sensibilisation des professionnels du droit au sujet de l’utilisation de l’IA. L’École nationale de la magistrature (ENM), à compter de 2025, introduira parmi sa formation un cycle annuel du numérique ainsi qu’une formation spécifique sur les usages de l’IA.
Pour conclure, le groupe de travail adopte une posture mesurée face à l’intelligence artificielle. Plusieurs orientations concrètes ont été dégagées pour intégrer l’IA dans les activités de la Cour, tant pour un usage interne que pour un apport plus large à la magistrature et à la communauté juridique. Le but est d’exploiter les atouts de l’IA sans empiéter sur les prérogatives du juge, dans le respect des principes de l’État de droit.