Le droit ne peut pas être réduit aux données – la loi est fondée sur l’interprétation, la méthode et la responsabilité


Le droit ne peut pas être réduit aux données – la loi est fondée sur l’interprétation, la méthode et la responsabilité
Dans ce premier article l'auteur s'axe sur le fait que les services d’IA peuvent analyser les données et formuler des réponses, mais la loi n’est pas un problème de données.

Lorsque l’IA est utilisée pour répondre à des questions juridiques, donc, une question plus fondamentale se pose: quel type de connaissance le droit est-il vraiment?

L’IA est conçue pour identifier les modèles dans de grandes quantités d’informations et reproduire ce qui a déjà été exprimé. La loi fonctionne différemment. Il s’agit d’interpréter les sources de droit, de les peser les unes contre les autres et de prendre la responsabilité de la façon dont le droit doit être compris et appliqué.

L’IA reproduit – interprète l’avocat

De nombreux services d’IA sont basés sur un modèle de connaissances basé sur des modèles de données et une compréhension générale du langage. Cela ne reflète pas pleinement le fonctionnement du travail juridique.

En tant que responsable du contenu de l’IA chez Norstedts Juridik et Karnov Group Michael Herbing exprime:
– « L’IA est essentiellement un outil qui identifie et reproduit les modèles dans les données. Cela signifie qu’il peut reproduire la façon dont le droit a été décrit et appliqué, mais il ne « comprend » pas le droit au sens juridique. La compréhension juridique consiste à interpréter les sources du droit, à les peser les unes contre les autres et à les mettre dans leur contexte. Il faut de la méthode et du jugement, pas seulement des données. »

Cela indique une différence cruciale entre le fonctionnement de l’IA et la façon dont le droit est réellement mené.

La loi ne consiste pas à reproduire l’information. Il s’agit d’un processus dans lequel les sources juridiques sont identifiées, pesées les unes contre les autres et interprétées dans un contexte. La méthode juridique est normative et structurée. Il ne s’agit pas de ce qui est le plus probable, mais de ce qui est juste sur la base de la doctrine de droite.

C’est une collision de base.

L’IA est basée sur la logique informatique, où les modèles et les probabilités sont au centre. Le droit est fondé sur la méthode, l’interprétation et la responsabilité. L’IA peut montrer ce qui est commun dans le matériel. L’avocat doit décider ce qui est juste.

Pourquoi l’IA ne peut pas contribuer au développement juridique

La différence est particulièrement claire sur la question du développement juridique.

L’IA est fondamentalement reproductive. Il est basé sur ce qui existe déjà et peut combiner et reformuler le matériel existant. Mais elle ne peut pas contribuer de manière indépendante au développement de la justice.

« Le fait que l’IA soit reproductive signifie qu’elle est basée sur ce qui existe déjà. Elle peut combiner et reformuler le matériel existant, mais elle ne peut pas contribuer de manière indépendante au développement de la loi. Dans la loi, c’est problématique parce que le développement juridique se fait souvent par l’interprétation, la nuance et parfois par la remise en question des approches établies » selon Michael Herbing.

C’est dans ces situations que l’expertise juridique devient cruciale. Interpréter le tribunal signifie prendre position et donc aussi prendre ses responsabilités.

Le changement se produit rarement par un individu décisif, mais par un changement progressif au fil du temps. Un exemple concret est la façon dont les tribunaux modifient progressivement leurs lignes d’interprétation.

– « Un exemple est la jurisprudence de la Cour de justice de l’Union européenne, qui peut être considérée comme une tendance à un changement de l’équilibre entre l’UE et les États membres. Lorsque de telles tendances doivent être incluses dans la prise de décision, des connaissances juridiques et une compréhension sont nécessaires. Ce que l’IA n’a pas, car elle est basée sur des sources existantes et ne peut donc pas prendre en compte de telles nuances », poursuit Michael Herbing.

Les mouvements sont souvent implicites et dépendants du contexte. Ils ne sont pas toujours clairement évidents dans les jugements individuels, mais doivent être interprétés dans un contexte plus large. L’avocat doit voir la direction.

Ici, l’IA a une limite claire.

– « L’IA a de la difficulté à capter les mouvements dans le développement juridique, surtout lorsqu’ils ne sont pas explicitement formulés dans les décisions individuelles. Cela nécessite une perspicacité juridique et une compréhension qu’une IA n’a pas, car elle est basée sur des sources existantes et ne peut pas inclure ces nuances », a déclaré Michael Herbing.

« Ce qui est perdu est dans la pratique ce qui est au cœur du droit. »

Le problème n’est donc pas seulement que l’IA manque de méthode légale. Le problème est qu’elle est basée sur un modèle de connaissance qui ne correspond pas à la façon dont le droit fonctionne.

Lorsque la loi est traitée comme un problème de données, les évaluations complexes risquent d’être réduites à quelque chose qui semble une réponse objective. Les incertitudes, les compromis et les interprétations alternatives disparaissent de l’image. L’expression classique, « cela dépend » est parfois utilisée en plaisantant entre avocats mais elle repose sur un aspect important de la méthode juridique.

– « Ce qui est perdu est en pratique ce qui est au cœur du droit : responsabilité, transparence dans le raisonnement et capacité de revoir et de remettre en question une évaluation. À long terme, cela peut conduire à une situation juridique qui n’est pas compatible avec ce qui a été décidé démocratiquement, car l’application de la loi et du développement sont réduites à un calcul de probabilité », explique Michael Herbing.

À long terme, c’est une sécurité juridique. Les évaluations juridiques ne sont pas seulement des réponses techniques, mais aussi des positions qui doivent être justifiées, examinées, remises en question et portées par quelqu’un.

Les experts juridiques deviennent encore plus importants avec l’IA

Cela signifie-t-il que l’IA manque de valeur dans des contextes juridiques ? Au contraire.

L’IA fonctionne très bien comme un soutien dans le travail juridique. L’IA peut rapidement identifier les documents pertinents, fournir un aperçu d’un domaine juridique et rationaliser l’analyse.

Mais pour que les services d’IA deviennent utiles dans les évaluations juridiques qualifiées, quelque chose de plus est nécessaire.

– « Si l’IA doit devenir vraiment utile dans des contextes juridiques, le service d’IA est nécessaire pour être basé sur du contenu de qualité, d’auteur expert et est conçu avec une méthode légale comme base. Il ne s’agit pas seulement d’accès à l’information, mais de la façon dont elle est structurée, interprétée conformément à la doctrine », explique Michael Herbing.

Si l’IA n’est pas basée sur du matériel écrit par des experts, y compris des informations juridiques de base, il existe un risque clair que les réponses manquent de fondement juridique. Elle peut alors reproduire l’information, mais ne pas la mettre dans un contexte juridique ou peser différentes sources de droit les unes contre les autres de manière méthodologiquement correcte.

– « Dans la pratique, cela signifie que les réponses deviennent fragmentées et n’ont pas de lien avec la méthode juridique et la justice de droite. Elles peuvent sembler convaincants, mais manquent de structure et de la responsabilité requises pour être utilisées dans de vrais jugements juridiques », conclut Michael Herbing.

La conclusion est claire. La loi n’est pas un problème de données. Il s’agit d’un système d’interprétation et de responsabilisation. Et ce n’est que lorsque l’IA évolue sur le point de départ qu’elle peut aider à créer une réelle valeur juridique.

Caroline Wiroth
Brand Communications Manager & Head of Group Sustainability chez Karnov Group