Publication d’une charte d’utilisation de l’Intelligence artificielle au sein de la juridiction administrative


Publication d’une charte d’utilisation de l’Intelligence artificielle au sein de la juridiction administrative
Fin 2025, le Conseil d’Etat publie une charte afin de définir un cadre d’emploi de l’Intelligence artificielle (IA) conforme à la déontologie des juridictions administratives. Elle s'applique à toutes celles et ceux qui participent aux missions de la juridiction administrative. Une action qui s'inscrit dans le cadre juridique général applicable au niveau national et européen.

Le développement de l’IA générative entraîne une augmentation des « possibilités de falsification de pièces ou de génération de faux contenus, le plus souvent photo, vidéo ou audio, difficiles à détecter ». Comme l’indique le rapport « les juridictions administratives se préparent à traiter des dossiers impliquant l’IA. En effet, d’une part, les parties, y compris l’administration, recourent parfois d’ores et déjà à ces nouveaux outils. Les écritures, notamment les mémoires produits par les parties peuvent être générées avec l’aide de l’IA ».

Enfin, de nombreuses interrogations – comme celles liées aux écritures, à la confidentialité des données – découlent de ces évolutions, et, il convient alors de poser un cadre pour favoriser le respect des droits fondamentaux lors de l’usage des systèmes d’IA (SIA). Il est important de noter que la charte porte principalement sur les SIA dits « externes », cela signifie qu’elle porte sur les SIA « développés par des tiers et accessibles sur internet ». Cependant, elle ouvre tout de même la perspective d’un développement par la juridiction administrative elle-même de SIA qui seront alors désignés comme des SIA dits « internes ».

Mise en évidence de principes généraux pour une utilisation déontologique de l’IA générative

Plusieurs points sont mis en évidence pour répondre à cette partie :

  • Interdire l’utilisation de l’IA pour porter des appréciations qui doivent rester humaines

La charte souligne l’importance de bien utiliser l’IA tout en ayant conscience de son véritable apport pour les professions ciblées. Effectivement, elle explique que « l’IA offre des perspectives pour préparer la prise de décision, ainsi que l’envisage notamment le Règlement européen sur l’intelligence artificielle (RIA) dans le domaine de la justice ». Néanmoins, il est essentiel qu’aucune décision de justice ne « saurait être prise de manière automatisée et sans contrôle humain ».

Par conséquent, la charte rappelle l’importance de ne pas utiliser l’IA pour prendre des décisions, interpréter une règle de droit ou une jurisprudence, établir des faits ou porter une appréciation sur eux, proposer une solution au regard des données d’un litige notamment.

  • Conserver l’autonomie de la décision

Cela s’inscrit dans la continuité du premier point puisque le raisonnement ne doit pas être influencé par ce qui est proposé par l’IA. Cela entraînerait notamment des questions autour de l’impartialité des membres de la juridiction administrative l’ayant utilisée dans le cadre de leur travail.

L’IA ayant des biais il est essentiel de s’en écarter. Pour cela, il faut prendre de conscience de l’existence de biais potentiels. Ainsi, l’esprit critique, la conscience de l’esprit humain et l’information continue autour de ces systèmes d’IA doivent rester primordiaux afin de garantir une utilisation n’entravant pas le travail des membres des juridictions administratives.

Une liste non exhaustive de biais est fournie au sein de cette charte :

  1. Les biais d’ancrage, c’est-à-dire « la difficulté à se départir d’une première impression ou d’une première proposition » ;
  2. Les biais de confirmation qui renvoie à « favoriser des informations qui confirment des croyances ou hypothèses préexistantes en minimisant des éléments allant en sens inverse ou en les ignorant » ;
  3. Les biais d’apprentissage qui soulignent « les préjugés ou encore partis-pris politiques contenus dans les données d’entraînement » ;
  4. Les biais discriminatoire qui sont plus graves et reflètent que « les données d’entraînement issues d’internet peuvent comporter des éléments discriminatoires que l’IA peut alors reproduire ».
  • Assurer une vérification humaine

Dans la continuité des premiers critères, les erreurs sont inhérentes à la conception des SIA qui restent des outils utilisant une approche statistique et non pas une approche s’appuyant sur la signification des mots.

A contrario « la recherche de l’exactitude des faits et des références juridiques est au cœur du travail des personnels des juridictions administratives ». De ce fait, il est obligatoire d’avoir une vérification systématique humaine afin d’éviter toute erreur.

  • Assumer le contenu utilisé généré par l’IA

Cela signifie qu’il n’est pas possible de rendre responsable l’IA pour un contenu qu’elle a généré si le choix a été fait de l’utiliser pour l’élaboration des tâches attendues des membres des juridictions administratives.

  • Favoriser un usage de l’IA en ayant conscience de ses impacts environnementaux

L’impact environnemental de l’utilisation de l’IA est désormais de plus en plus mis en exergue. Dans cette perspective, il est essentiel d’avoir conscience de cet impact et de le limiter « en privilégiant d’autres moyens existants plus frugaux lorsqu’ils permettent d’atteindre le même objectif ».

La question de la sécurité et de la confidentialité des données

Ce questionnement prend une autre proportion notamment en ce qui concerne les SIA accessibles au grand public (« externes ») où des risques de sécurité et de déontologie sont fortement présents. La charte indique notamment que « d’une certaine manière, donner une information à un chatbot – dans le prompt ou par une pièce jointe – équivaut à la publier sur internet ». Cela entraîne un « très fort enjeu de protection des données personnelles et de respect du secret professionnel ».

Ainsi, la charte précise la directive suivante : « aucun document couvert par un secret ne doit être versé dans un SIA externe ». Elle poursuit en indiquant qu’ « il ne faut en particulier télécharger aucun mémoire, aucune pièce de dossiers contentieux, aucune note de rapporteur, ni aucun projet de décisions juridictionnelles ou de textes normatifs présentés devant les sections administratives ». Tout en soulignant également que « tout document protégé par des droits d’auteurs ne doit pas non plus être versé dans un SIA externe ».

Ouverture vers le déploiement de SIA internes

La charte a tout d’abord indiqué que « aucun projet envisagé par la juridiction administrative ne porte sur le développement de SIA qui présentent un haut niveau de risque au sens du règlement européen sur l’IA (interprétation des faits et de la loi, application de la loi au cas dont le juge est saisi…) ». L’IA pourrait plutôt avoir pour vocation de permettre l’automatisation de l’anonymisation des décisions de justice.

Cette ouverture s’appuie toutefois sur une logique de transparence, de performance et durabilité, et d’autonomie stratégique.

  1. Transparence : « la juridiction administrative s’engage à faire connaître publiquement quels SIA elle a développé, pour quels usages et avec quelles garanties de contrôle humain.
  2. Performance et durabilité : le développement suivra une « logique d’expérimentation et d’évaluation » en vérifiant bien que l’outil présente un « bénéfice attendu pour les usagers et les personnels supérieurs aux coûts humains, financiers et environnementaux ainsi qu’aux risques de sécurité ».
  3. Autonomie stratégique : tout SIA développé par la juridiction administrative « devra présenter des garanties de souveraineté, de sécurité et de protection des données ».

Pour lire le rapport complet : Charte d’utilisation de l’IA au sein de la juridiction administrative

Alexandra Maldonado
Journaliste - Lamy Liaisons