Le juge et l’intelligence artificielle : Retour sur le colloque organisé par l’ENM et l’UPEC


Le juge et l’intelligence artificielle : Retour sur le colloque organisé par l’ENM et l’UPEC
Le 20 février 2026, l’Ecole nationale de la magistrature et l'Université Paris-Est Créteil ont organisé un colloque portant sur le juge et l’intelligence artificielle (IA). A cette occasion, magistrats, universitaires et acteurs institutionnels et économiques sont intervenus afin de débattre autour d’une problématique générale : quels sont les usages que le magistrat judiciaire peut faire de l’IA ?

La première partie du colloque s’est axée sur le déploiement de l’IA au sein de la justice.

LE DEPLOIEMENT DE L’INTELLIGENCE ARTIFICIELLE AU SEIN DE LA JUSTICE

La première table ronde avait pour objectif de souligner tant les avantages que les dangers qu’implique l’introduction de l’IA au sein des juridictions, mais également de réfléchir sur les solutions possibles pour réduire le risque de ces dangers.

  1. Les devoirs du juge face aux dangers de l’IA

L’indépendance et l’impartialité des magistrats face à l’IA. Les magistrats sont tenus par une obligation d’indépendance et d’impartialité qui découle à la fois de la Constitution du 4 octobre 1958, mais également de leur statut. Le colloque a été l’occasion de s’interroger sur le risque que pourrait représenter l’IA au regard de ces devoirs.

L’IA est en effet un outil généralement créé, détenu et entrainé par des entreprises privées diverses. Or, la simple détention d’un outil au service de la justice par une entreprise privée interroge directement l’indépendance de la justice, mais également son impartialité. Comment savoir si l’IA n’a pas été entrainée pour servir des intérêts divers et variés ? De même, la fiabilité du système, soumis à des hallucinations, interroge s’agissant de la confiance que le magistrat devrait lui accorder. Afin de limiter les risques, les systèmes d’IA sont strictement encadrés par les réglementations françaises et européennes, notamment en raison du danger qu’elles représentent pour l’indépendance et l’impartialité de la justice.

A ce titre, Sarah Dormont, Maître de conférence à l’UPEC, rappelle que le Règlement IA, aussi appelé AI Act, du 13 juin 2024, classe les systèmes d’IA en quatre catégories : risque inacceptable, risque élevé, risque limité et risque minimal ou nul. L’IA relative à la justice répond généralement à la seconde catégorie, celle présentant un risque élevé. Si des systèmes d’IA sont acceptés, d’autres sont cependant interdits en raison du risque qu’ils représentent. Tel est le cas des systèmes d’IA qui auraient pour finalité de calculer le risque, pour un individu, de commettre une infraction à partir de son profilage. Mais dès lors que le système est autorisé, le règlement impose, aux IA qui participent à l’administration de la justice, des règles strictes de contrôle, de gestion, de confidentialité. Ce règlement européen apparaît ainsi comme une protection aux dangers de l’IA en la matière.

La confidentialité et la protection des données. La justice a la particularité de traiter des données sensibles qui peuvent faire l’objet d’un traitement dans le cadre des procédures de police ou judiciaires. Le traitement de telles données, et notamment leur traitement automatisé, a fait l’objet d’un encadrement strict par la Loi informatique et liberté du 6 janvier 1978. A ce titre, Thomas Dautieu, Directeur de l’accompagnement juridique de la CNIL, invite les magistrats à se rappeler qu’un système d’IA est avant tout un traitement automatisé de données personnelles qui permet à ce dernier de s’entrainer. La CNIL a d’ailleurs publié un rapport en décembre 2017 intitulé Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle. Dans ce rapport, la CNIL souligne l’importance du devoir de vigilance lorsqu’un utilisateur a recours à l’IA. Thomas Dautieu invite alors les magistrats à se référer à ce devoir et rappelle en conclusion l’importance de l’anonymisation des données personnelles. En effet, si un magistrat a recours à un tel système, ce dernier doit nécessairement anonymiser les données personnelles afin de garantir la protection de ces dernières ainsi que la confidentialité.

  1. Les recommandations

L’IA pourrait présenter un avantage pour les magistrats comme le souligne Sarah Dormont. Cet outil pourrait en effet venir en soutien à la profession afin de compenser le manque de moyens matériels et humains et ainsi accroitre la célérité et désengorger les tribunaux. De façon plus concrète, Benoit Chamoir, Magistrat du tribunal judiciaire de Paris, relève trois aspects sur lesquels l’IA pourrait présenter un intérêt pour le juge :

  • Un outil d’appui. L’IA pourrait venir en aide au magistrat dans ses tâches administratives, telles que la synthèse de documents après anonymisation, l’extraction de données ou l’organisation du magistrat.
  • Un outil pour « mieux faire ». L’IA pourrait avoir une fonction d’amélioration de la qualité de ce que produit le magistrat. Benoit Chamoir donne alors comme exemple les recherches juridiques qui pourraient être facilitées tout en améliorant leur qualité.
  • Un outil pour « faire plus ». L’IA pourrait apporter une plus-value en faisant des choses que le juge ne fait pas, telle que l’adaptation d’une décision afin de la rendre plus accessible pour un public particulier ( les enfants)

Ces avantages ont été étudiés par la stratégie du ministère de la Justice publiée en 2025, L’IA au service de la justice : stratégie et solutions opérationnelles, qui apporte une réflexion sur l’intégration de l’IA au sein des juridictions. Le rapport portait sur trois axes :

  • La démocratisation de la technologie
  • Le déploiement de l’IA et la préservation de la souveraineté
  • L’encadrement de l’usage de l’IA au regard de l’éthique

Elise Farge Di Maria, Membre du ministère de la Justice et directrice du programme IA qui a participé à l’élaboration du rapport, affirme que la souveraineté est la pierre angulaire de la stratégie publiée. En raison de son importance, le ministère de la Justice se doit alors de proposer aux agents des alternatives aux outils grand public afin de préserver cette souveraineté, garantir l’indépendance et l’impartialité des magistrats et ainsi éviter tout risque de dépendance à l’égard d’une société privée.

Elise Farge Di Maria évoque l’importance de donner à l’IA une utilité particulière. Il ne s’agit pas, pour elle, d’utiliser l’IA pour dire que l’on l’utilise, mais bien de dégager de véritables problèmes auxquels cet outil apporterait une solution. L’IA doit alors être pensée en tant que réponse à un problème spécifique. C’est ainsi que le groupe de travail a envisagé des « cas d’usage » qui sont des situations concrètes rencontrées par les magistrats et qui révèlent des besoins particuliers. Soixante cas d’usage ont été relevés dont 12 cas qui ont été qualifiés, par le groupe de travail, de prioritaires. Le rapport invite le ministère de la Justice à travailler en priorité autour de ces 12 cas d’usage afin de développer potentiellement des outils permettant d’apporter une réponse aux besoins soulevés. Ces besoins portent notamment sur :

  • L’analyse et la recherche documentaire
  • L’aide à la rédaction et synthèse contextualisée
  • La retranscription judiciaire des audiences et des auditions
  • Les solutions d’orientation du justiciable

A ce titre, le ministère de la Justice expérimente dans certaines juridictions un « agent d’assistance IA » afin de faciliter certaines tâches : notamment la synthèse, la rédaction ou l’analyse de documents. De même, un projet est en cours afin de développer des start-up d’Etat en matière civile et en matière pénale afin d’adapter les outils aux spécificités des matières.

Elise Farge Di Maria rappelle que, malgré le développement potentiel de l’IA dans les juridictions, la formation des magistrats aux outils est essentielle afin de les sensibiliser aux différents biais, et notamment concernant le biais de l’automatisation. Ce biais consiste à s’habituer à l’outil et à cesser de le questionner. A ce titre, Yannick Meneceur, Membre de l’Institut Badinter et du Comité consultatif national d’éthique du numérique, rappelle qu’il est important que le système ne remplace pas le professionnel. Afin d’éviter cela, il émet l’idée de reprendre un système existant dans d’autres matières, et notamment dans le domaine aéronautique, consistant à obliger le professionnel à reprendre la main dans certaines situations. Cette obligation permettrait de s’assurer que le professionnel est toujours capable de résoudre une situation par ses propres moyens, tout en évaluant son esprit critique.

Pour revoir l’intégralité du colloque : Tables rondes : Le juge et l’intelligence artificielle

Mallory Trony
Étudiante à l’ISP - Préparation aux concours de l’Ecole Nationale de la Magistrature