Ce recueil, retranscription d’une conférence qui date de l’année dernière a le mérite de dresser un panorama des enjeux associés à l’IA sous forme de discussions et d’interventions de spécialistes. De la difficulté de définir cette révolution technologique juridiquement à un état de la pratique de l’IA, le rapport de l’Institut Robert Badinter met en lumière enjeux et difficultés pour les professionnels du droit.
Revenons rapidement sur la première partie des échanges de la conférence qui insiste sur la définition et la conceptualisation de l’IA. Muriel Popa Fabre, experte au Conseil de l’Europe, revient sur la façon dont les IA fonctionnent pour produire des réponses. « Les mots sont représentés sous forme de vecteurs suite de chiffres puis calcul de probabilités qui génèrent les mots possibles en réponse. » Comme déjà évoqué dans ces pages, la réponse donnée par l’IA est un leurre statistique, « la continuation statistique des mots de votre question » selon l’experte. Il s’agit pour l’IA de proposer des mots associés à ceux de la question, les mots avec lesquels ils « voyagent fréquemment ». Leur pertinence dépend ensuite bien sûr du jeu de données nécessaire à son entraînement.
La place de l’humain dans la technologie et le besoin d’une couche d’observabilité
Selon le professeur Thomas Lampert, professeur en intelligence artificielle et sciences des données à l’université de Strasbourg, la nouveauté ce sont moins les réseaux de neurones en tant que tels, que les capacités de computation des microprocesseurs des cartes graphiques – les fameux GPUs et la quantité massive de données disponibles, qu’il n’est plus besoin d’étiqueter. Les conférenciers sont ensuite revenus sur d’autres développements technologiques, dont les Large Action models, qui sont capables d’effectuer des actions automatisées, par exemple du remplissage automatique. Mais selon Murielle Popa Fabre, la vraie question à se poser, c’est la place de l’humain dans la technologie et le besoin d’une couche d’observabilité, pour à la fois « gouverner et améliorer » les systèmes.
Par la suite, il faut s’intéresser à la retranscription d’une des tables rondes, intitulée « IA et professionnels du droit, le grand malentendu ». Lors de cet échange, le juge administratif Marc Clément, qui est aussi développeur IA insiste de la même manière sur la difficulté « à appréhender juridiquement un objet en constante évolution », mais que le plus fondamental est notre positionnement face aux algorithmes, et aux décisions qu’ils prennent.
Des usages prudents de l’IA dans le champ du droit
Les intervenants se sont intéressés aux usages, Claire Strugala, Magistrate judiciaire et docteure en droit, qui est revenue sur l’usage par les différents ministères de la justice européens. Elle liste trois grandes familles d’usages possibles, celles de l’accès au droit comme en Espagne ou au Portugal où les chatbots sont utilisés pour ouvrir davantage le champ juridique aux citoyens, pour l’administration judiciaire et la rédaction administrative comme l’envoi de convocations, ou encore pour le traitement de contentieux dits sériels. Et enfin, il y a le champ de la décision judiciaire, où les usages ne sont pas décrétés.
La magistrature serait plus dans une démarche d’expérimentation, de manière prudente. Sur le plan des juridictions administratives, il y a peu de place pour les outils d’intelligence artificielle selon Marc Clément. Pour l’avocat Pascal Alix, précautionneux, l’usage de ces outils, auxquels il se réfère comme des « dispositifs sociotechniques » si ce n’est pas une nécessité, n’est en tout cas pas neutre. L’avocate Aurélie, du cabinet Fidal, qui a fait le choix d’une IA interne, et évoque les risques d’un client, déjà convaincu de l’approche à adopter. Frédérique Berrod, professeur de droit a embrayé sur le plan de la réflexion universitaire et pointe parmi les pistes de changements évoqués celle qui va consister à demander aux étudiants « de faire mieux que l’intelligence artificielle ». C’est-à-dire de demander davantage que la maîtrise complète des connaissances de faire preuve d’un esprit « stratège » et « créatif ».
Pour développer la créativité, il sera demandé aux futurs praticiens de davantage écouter leur client. Enfin le volet formation technique à l’IA devra nécessairement être intégré au cursus. Les conférenciers ont de nouveau pointé la nécessité d’un contrôle humain, rappelant qu’aucune décision judiciaire ne serait entièrement automatisable, et de celle d’une sécurité des données, en conformité avec les règles strictes de la RGPD.
—