Le pouvoir judiciaire britannique lance un guide sur l'utilisation de l'IA par les juges du Royaume-Uni


Le pouvoir judiciaire britannique lance un guide sur l'utilisation de l'IA par les juges du Royaume-Uni
Un guide élaboré par l'équivalent britannique du pouvoir judiciaire présente les cas potentiels d'utilisation de l'IA dans le système judiciaire, ainsi que les risques associés à une telle utilisation et un ensemble de principes pour le faire de manière responsable.

Le HM Courts and Tribunals Service au Royaume-Uni a publié un guide pour une utilisation éthique des outils d’intelligence artificielle par les responsables des tribunaux.

Ce guide, qui s’applique à tous les titulaires de fonctions judiciaires, à leurs supérieurs hiérarchiques, aux greffiers et aux autres membres du personnel d’appui, vise à aider les titulaires de fonctions judiciaires du pays à utiliser l’intelligence artificielle (IA).

A cette fin, il présente les principaux risques et problèmes liés à l’utilisation de l’IA et quelques suggestions pour les minimiser, ainsi que des exemples d’utilisations possibles.

Utilisations potentielles de l’IA par les tribunaux et les risques qui en découlent

En principe, les lignes directrices précisent que toute utilisation de l’IA par le pouvoir judiciaire ou en son nom doit être compatible avec son obligation générale de protéger l’intégrité de l’administration de la justice.

Les lignes directrices exposent ensuite les utilisations possibles de l’IA générative dans les cours et tribunaux et les risques potentiels qui en découlent.

Ainsi, parmi les tâches potentiellement utiles, il souligne que :

  • Les outils d’IA sont capables de résumer de grands volumes de texte (bien que, comme pour tout résumé, il faille veiller à l’exactitude).
  • Les outils d’IA peuvent être utilisés dans la rédaction de présentations, par exemple, pour suggérer des sujets à aborder.
  • L’IA peut également effectuer des tâches administratives telles que la rédaction de courriels et de mémos.

Toutefois, il existe un certain nombre de tâches pour lesquelles l’utilisation d’outils d’IA n’est pas recommandée :

  • la recherche juridique : Les outils d’IA ne sont pas un bon moyen d’effectuer des recherches pour trouver de nouvelles informations qui ne peuvent pas être vérifiées de manière indépendante.
  • l´analyse juridique : les chatbots d’IA publics actuels ne produisent pas d’analyse ou de raisonnement convaincants.

D’un autre côté, le guide présente également un certain nombre d’indices qui peuvent aider à identifier qu’un texte juridique peut avoir été produit par l’IA :

  • des références à des affaires dont la consonance n’est pas familière sont incluses, ou comprennent des citations inconnues (parfois en provenance des États-Unis)
  • différentes jurisprudences sont citées en relation avec les mêmes questions juridiques
  • des documents qui ne correspondent pas à l’interprétation générale du droit sur un sujet donné
  • des documents qui utilisent l’orthographe américaine ou font référence à des affaires étrangères, et
  • un contenu qui semble (au moins superficiellement) très convaincant et bien rédigé, mais qui contient des erreurs de fond évidentes.

Principes applicables à l’utilisation de l’IA par les organes judiciaires

Le guide présente sept principes :

1. Comprendre l’IA et ses applications

Avant d’utiliser un outil d’IA, le juge doit s’assurer qu’il a une compréhension de base de ses capacités et de ses limites potentielles.

2. Préserver la confidentialité et le caractère privé des informations

Un juge qui utilise l’un de ces outils doit éviter d’introduire dans un chatbot d’IA public des informations qui ne sont pas déjà dans le domaine public. Par conséquent, aucune information privée ou confidentielle ne doit être saisie. Toute information saisie dans un chatbot doit être considérée comme publiée pour tout le monde.

3. Garantir l’exactitude des informations générées par l’IA

Il convient de vérifier l’exactitude de toute information fournie par un outil d’IA avant de l’utiliser ou de s’y référer pour prendre une décision.Veuillez noter que les informations fournies par les outils d’IA peuvent être inexactes, incomplètes, trompeuses ou obsolètes, et même si elles prétendent représenter le droit anglais, ce n’est pas forcément le cas.

4. Être conscient des biais que l’IA peut contenir

Les outils d’IA basés sur le LLM génèrent des réponses basées sur l’ensemble de données sur lequel ils ont été formés. Il faut donc être conscient que les informations générées par l’IA reflèteront inévitablement les erreurs et les biais de ses données d’apprentissage.
Il faut donc toujours tenir compte de cette possibilité et de la nécessité de la corriger. À cet égard, il convient de se référer au manuel de référence sur l’égalité de traitement de l’organisation judiciaire elle-même (Equal Treatment Bench Book).

5. Utiliser des outils sûrs

Il est conseillé de suivre les meilleures pratiques afin de préserver sa propre sécurité et celle de la juridiction. À cette fin, il est recommandé d’utiliser des appareils professionnels (plutôt que des appareils personnels) pour accéder aux outils de l’IA.
Il est également recommandé d’utiliser une adresse électronique professionnelle et d’utiliser des abonnements payants (et non gratuits) aux plateformes d’IA.

6. Assumer la responsabilité de l’utilisation des outils d’IA

Le Guide rappelle que les titulaires de fonctions judiciaires sont personnellement responsables des documents produits en leur nom, bien qu’ils ne soient généralement pas obligés de décrire les recherches ou les travaux préparatoires qu’ils ont effectués pour produire un jugement.Par conséquent, tant que ces lignes directrices sont correctement suivies, il n’y a aucune raison pour que l’IA générative ne soit pas un outil secondaire potentiellement utile.

Maintenant, si les greffiers, les assistants judiciaires ou d’autres membres du personnel utilisent des outils d’IA dans le cadre de leur travail pour le tribunal, le titulaire devrait en discuter avec eux pour s’assurer qu’ils utilisent ces outils de manière appropriée et qu’ils prennent des mesures pour atténuer les risques découlant de leur utilisation.

7. Être conscient que les professionnels agissant devant la juridiction peuvent avoir utilisé des outils d’IA

Les lignes directrices préviennent enfin que certains types d’outils d’IA sont utilisés par les praticiens du droit depuis longtemps et sans difficulté. Par exemple, les systèmes de révision assistée par la technologie (technology-assisted review, TAR) font désormais partie du paysage habituel du système juridique britannique. De même, de nombreux outils d’IA sont déjà utilisés de manière générale, par exemple dans les moteurs de recherche pour compléter automatiquement les questions, dans les réseaux sociaux pour sélectionner le contenu à diffuser, et dans la reconnaissance d’images et le texte prédictif.

Malgré cela, il est rappelé que tous les professionnels du droit agissant devant un tribunal sont responsables des documents qu’ils présentent au tribunal et ont l’obligation professionnelle de veiller à ce qu’ils soient exacts et appropriés.

Cependant, jusqu’à ce que la profession juridique se familiarise avec ces nouvelles technologies, il peut parfois être nécessaire de rappeler aux avocats individuels leurs obligations et de confirmer qu’ils ont vérifié de manière indépendante l’exactitude de toute recherche ou citation d’affaire générée à l’aide d’un chatbot d’IA.