Le défi du risque


Le défi du risque
Le 9 mars 2024 s’est tenue la deuxième édition du Forum des Éclaireurs du Droit organisée par le groupe Lamy Liaisons Karnov. Parmi les intervenants, des philosophes, universitaires, sociologues, juristes, avocats, notaires, essayistes ou encore des entrepreneurs qui ont partagé leurs savoirs et expériences afin de décrypter le thème de cette rencontre : « les 4 grands défis des professionnels du droit ». Après le principe de précaution, le principe de responsabilité anticipée. Peut-on faire du risque futur un risque opposable au droit ? Focus sur la troisième table ronde dédiée au sujet : « le défi du risque ».

Animée par Marjorie Paillon, journaliste, la deuxième table ronde de cette édition du Forum des Éclaireurs du Droit a réuni Aurélie Klein, avocate spécialisée en droit des données et du numérique, en charge de l’innovation digital au sein du cabinet Fidal Avocats et maître de conférences associée à l’université de Strasbourg, ainsi que Pascal Alix, avocat, doctorant à l’université Paris I Panthéon-Sorbonne.

Le besoin de répondre à un risque futur

Pascal Alix explique tout d’abord que les chercheurs du MIT ont identifié au travers de leurs recherches relatives à l’utilisation de l’intelligence artificielle (IA) 777 risques pour l’année 2024. Aujourd’hui, les chiffres annoncent plus de 1000 catégories de risques liés à l’intelligence artificielle. Leurs recherches ont également pu déceler que 65% des risques liés à l’IA ne sont identifiés qu’après le déploiement des systèmes.
On comprend ainsi que les risques ne cessent de croitre au fil du temps et que nombre d’entre eux sont identifiés trop tardivement. Par conséquent, selon l’intervenant, une question centrale se pose : peut-on transformer un risque futur en un élément juridiquement opposable ? Cette interrogation s’inscrit dans une réflexion plus large sur l’évolution du principe de précaution et l’émergence d’un principe de responsabilité anticipée.

Le principe de précaution et ses limites

Pour Pascal Alix, le principe de précaution consacré par la Déclaration de Rio de 1992 et intégré en droit français via la Charte de l’environnement (art. 5), repose sur l’adoption de mesures préventives en cas de risque d’un dommage grave ou irréversible, même en l’absence de preuve scientifique formelle. Son application demeure cependant essentiellement environnementale et ne couvre pas explicitement les risques technologiques émergents, notamment ceux liés à l’IA.
Par ailleurs, ce principe reste fondé sur l’existence d’un dommage potentiel identifiable. Or, dans le cas de l’IA, certains risques sont d’une nature totalement inédite, sans précédent concret sur lequel s’appuyer juridiquement. Le principe de précaution connait par conséquent des limites infranchissables face au risque que peut constituer l’usage de l’IA.

L’idée d’un principe de responsabilité anticipée

Face à ces limites, l’idée d’un principe de responsabilité anticipée se dessine. Inspiré de la philosophie d’Hans Jonas, ce principe repose sur l’idée que la peur ne doit pas paralyser l’actionmais éclairer la réflexion juridique. L’objectif serait d’imposer aux acteurs de l’IA une obligation d’anticipation des risques, au-delà du seul cadre des dommages avérés.

Des pistes existent dans le droit positif bien qu’aucune réponse concrète n’ai été tranchée à ce jour :

— le Digital Services Act (DSA) et le Règlement Général sur la Protection des Données (RGPD) imposent déjà des obligations de diligence et de conformité aux entreprises. Toutefois, ils ne prévoient pas une approche globale de responsabilité anticipée ;
— la directive CS3D sur le devoir de vigilance (2024), en instaurant une responsabilité des entreprises sur l’ensemble de leur chaîne d’approvisionnement, pourrait ouvrir la voie à une logique similaire pour l’IA ;
— des décisions de justice, notamment du Conseil d’État et des juridictions allemandes, laissent entrevoir une évolution jurisprudentielle vers une prise en compte plus large des risques technologiques pour les générations futures.

Des freins juridiques et philosophiques à surmonter pour la protection des générations futures

Malgré ces pistes, Pascal Alix poursuit en expliquant que plusieurs obstacles demeurent et entravent la protection des générations futures face à l’usage de l’IA :

— l’absence d’un consensus sur la notion même de responsabilité anticipée. Certains juristes évoquent la possibilité d’une « responsabilité sans dommage », ce qui bouleverse les fondements classiques du droit de la responsabilité ;
— les implications constitutionnelles : en effet, l’article 1er de la loi Informatique et Libertés affirme que «l’informatique ne doit pas porter atteinte à l’identité humaine », ce qui pourrait justifier une reconnaissance de la dualité ontologique entre l’Homme et la machine dans la Constitution ;
— la difficulté de mise en œuvre ou comment imposer aux acteurs de l’IA une responsabilité anticipée sans freiner l’innovation technologique ?

On comprend au travers de l’intervention de Pascal Alix que l’intégration d’un principe de responsabilité anticipée dans le droit des technologies représenterait une avancée majeure pour la protection des générations futures face aux risques liés à l’IA. Toutefois, cette évolution nécessiterait une redéfinition profonde des cadres juridiques actuels, ainsi qu’une réflexion sur les moyens d’identifier et d’évaluer les risques avant leur matérialisation. Dans ce contexte, des signaux faibles d’une évolution juridique en ce sens commencent à apparaître.

Aurélie Klein affirme, quant à elle, que l’essor de l’intelligence artificielle générative (IAG) bouleverse le monde juridique, soulevant des questions majeures sur la fiabilité des données, la confidentialité et l’évolution des modèles économiques des professions du droit.
Elle identifie au travers de son intervention de nombreux risques qui émergent en raison de l’usage de l’IAG :

  • Risque de menace pour la fiabilité juridique

L’avocate rappelle, à ce titre, l’un des premiers grands scandales liés à l’IAG qui a éclaté en mai 2023. Un avocat américain avait en effet soumis à un tribunal un mémoire, préparé avec l’IA, qui contenait six jurisprudences totalement fictives générées par ChatGPT. Ce cas emblématique a mis en lumière le risque d’hallucination des IAG, qui peuvent produire des informations erronées avec un réalisme troublant.

Ainsi, la représentante du cabinet Fidal Avocats explique que ce risque se décline en plusieurs dimensions :

— atteinte à la crédibilité des professionnels du droit, qui peuvent involontairement s’appuyer sur des données fausses ;
— un réel impact sur l’image des cabinets d’avocats en cas d’erreurs graves dans les documents juridiques ;
— le défi de la perception de la vérité : en effet, l’IAG peut donner l’illusion d’une information fiable, alors qu’elle est fondamentalement faillible.

Ce problème est d’autant plus critique que ces erreurs ne sont pas immédiatement visibles, rendant leur détection complexe pour les professionnels.

  • Risque d’atteinte à la confidentialité et au secret professionnel

Aurélie Klein explique que l’usage des IAG sur étagère (comme ChatGPT) pose une autre question fondamentale : le sort des données confidentielles. Lorsque des documents non anonymisés sont soumis à ces outils, ils alimentent les bases de données des IAG, créant un « droit à l’éternité » pour des informations qui devraient rester protégées.

Face à cette menace, elle explique que des solutions émergent dans le monde juridique :

— l’adoption d’IA génératives verticales, c’est-à-dire des systèmes spécifiquement conçus pour un usage juridique, intégrant des bases de données contrôlées ;
— l’auto-régulation, avec la mise en place de bonnes pratiques en cabinet, incluant des règles strictes d’utilisation de l’IAG et des formations sur la gestion des risques liés à la confidentialité.
Ces initiatives permettent de sécuriser les données tout en profitant des bénéfices de l’IAG.

  • Risque de perte de valeur et de dévalorisation du travail

Aurélie Klein souligne que l’automatisation des tâches répétitives par l’IAG soulève un enjeu économique majeur pour les professions du droit. Dans un modèle basé sur la facturation horaire, tout ce qui devient automatisable perd de sa valeur. Elle précise qu’un risque de perte de transmission, du savoir être dans un monde où « on apprend à devenir avocat » constitue également un réel risque posé par l’IAG.

Cela pousse les avocats et juristes à redéfinir leur rôle et leur valeur ajoutée :

— se concentrer sur les compétences stratégiques et créatives, que l’IAG ne peut pas reproduire ;
— développer des « soft skills », comme la négociation, la médiation et la compréhension des besoins spécifiques des clients ;
— préserver l’humain dans le droit, car une machine, aussi avancée soit-elle, reste limitée à une approche passéiste et ne peut anticiper l’évolution des situations réelles avec la finesse d’un juriste expérimenté.

Ainsi, l’IAG représente à la fois une « alliée », une « boite à outils », mais également un risque pour les professions du droit. On comprend donc qu’il convient de développer des cadres de régulation et d’auto-régulation pour limiter les risques de confidentialité et d’hallucination.
Aurélie Klein conclut son intervention en soulignant l’importance toute particulière de conserver l’humanité et la « fantaisie » du juriste, qui restent des atouts uniques face à l’IA passéiste qui ne tiendra jamais compte des faits tels qu’ils existent aujourd’hui.

Réguler sans punir : l’État face au défi de la puissance

Lors d’une intervention, Sébastien Soriano, a partagé sa vision du rôle des régulateurs dans un monde économique de plus en plus polarisé. Son propos, centré sur la gestion du risque et l’articulation entre innovation et encadrement, s’inscrit dans une réflexion profonde sur l’équilibre entre liberté économique et responsabilité publique.

Entre régulation et marché : un nécessaire cadre pour l’ordre

Selon Sébastien Soriano, une tension inhérente subsiste entre les régulateurs et les entreprises autour de la notion de risque. Pour les entreprises, toute intervention de l’État est souvent perçue comme un frein à leur activité. Pourtant, il rappelle que, l’ordolibéralisme — ce modèle qui permet à la liberté économique de s’épanouir dans un cadre structurant — repose précisément sur l’existence d’un ordre établi par les pouvoirs publics. Ce malentendu fondamental, il espère le dissiper, exemples concrets à l’appui.

  • La couverture mobile : quand la carte remplace les promesses

Il évoque avec humour un épisode marquant de sa carrière : auditionné par les parlementaires, il affirme que la couverture mobile de la France était de 98,7 %. Un chiffre impressionnant, mais en réalité trompeur.« c’était une moyenne, bien sûr. En ville, c’est du 99,9 %, mais à la campagne, on tombe à 80 % » Un décalage entre statistiques et réalité vécue qui conduit à un tournant : la création de cartes de couverture mobile consultables par tous.
Ces cartes, bien qu’imparfaites, marquent une rupture. Les citoyens peuvent enfin vérifier par eux-mêmes, ce qui oblige les institutions à sortir d’un discours technocratique. De là naît le New Deal Mobile : un accord entre l’État, les opérateurs et le régulateur pour améliorer la couverture réseau. En échange d’une reconduction des autorisations de fréquence sans enchères spectaculaires, les opérateurs s’engagent à investir massivement. Résultat : plus de 3 milliards d’euros injectés et les maires impliqués dans le choix des implantations.

  • Le régulateur, garant d’un marché équitable

Pour Sébastien Soriano, cette expérience montre que le régulateur ne doit pas être vu comme une menace pour le marché, mais comme une force d’apaisement, capable de réduire le risque politique pour les investisseurs. Dans un monde bouleversé par les transitions numériques et climatiques, l’incertitude est omniprésente. Et lorsque la règle change brutalement ou que l’environnement devient imprévisible, ce sont les entreprises elles-mêmes qui souffrent.
Mais pour que cette régulation soit juste, encore faut-il qu’elle cible les bons acteurs. Sébastien Soriano pointe ici un malaise démocratique : « la tentation de l’État, c’est d’être fort avec les faibles et faible avec les forts ». Il l’illustre sans détour : « quand un patron du CAC 40 est mécontent, il peut appeler directement le Président de la République ». Une asymétrie de pouvoir qui met à mal la cohérence de l’action publique.
À l’inverse, trop souvent, les petites structures doivent se soumettre à des normes conçues pour des géants. Il appelle alors à une différenciation réglementaire : ne pas imposer la même norme au boucher du coin qu’à Google. Là où le RGPD échoue à faire cette distinction, le Digital Markets Act, selon lui, offre une voie plus ciblée.

  • Transition écologique : une écologie de la responsabilité

Sébastien Soriano conclut en transposant sa réflexion au défi climatique. Il rejette l’idée d’une « écologie punitive » qui imposerait la même contrainte à tous, sans discernement. « certains acteurs sont systémiques. Si eux ne bougent pas, rien ne changera ». Pour que la transition écologique soit viable politiquement, il propose de concentrer l’effort sur ces puissants, tout en protégeant les petits acteurs du poids d’une régulation excessive.

Ainsi, face à la complexité du monde contemporain, il plaide pour une régulation intelligente, différenciée, négociée — mais exigeante.

Camillia Pereira
Rédactrice spécialisée en assurances et droit de la responsabilité - Lamy Liaisons