Le défi de la confiance en l'IA


Le défi de la confiance en l'IA
Le Forum des Éclaireurs du droit, organisé par Lamy Liaisons Karnov, le 11 mars 2025, a été l’occasion de s’interroger sur comment les praticiens de la matière juridique peuvent relever le défi de la confiance. Les débats ont été clôturés par l’analyse de Laurent Guimier, directeur général délégué de l’information de CMA Media.

Yannick Meneceur, magistrat et maitre de conférences à l’université de Strasbourg, ainsi que Mahasti Razavi, associée et managing partner d’August Debouzy, ont tour à tour exposé leur analyse du premier défi, celui de la confiance en l’IA. Yannick Meneceur a d’abord souligné qu’il s’agissait que la confiance constituait un défi de taille, la plupart de nos concitoyens n’exprimant qu’une croyance modérée à l’égard de l’IA. En effet, le magistrat a cité les chiffres de deux études, aux termes desquels il s’avère, d’une part, que 36 % de Français seulement sont favorables à l’utilisation de l’IA pour automatiser la production de certains contenus simples, et que d’autre part, seuls 31 % indiquent être prêts à faire confiance à l’IA, contre 69 % qui s’en méfient.

Définir un cap

Constatant l’émergence de craintes de plusieurs ordres, plus ou moins concrètes et liées à divers éléments comme l’opacité de la technologie utilisée, l’impact social négatif supposé de l’utilisation de l’IA, le risque de perte de contrôle ou encore les atteintes (bien réelles) à la vie privée, Yannick Meneceur a constaté que l’essor de l’IA, à l’instar de toutes les nouvelles technologies, est confronté au dilemme de Collinridge, défini en 1980. Selon cette théorie, lorsque la technologie émergente n’est pas suffisamment implantée, nous manquons d’informations et lorsqu’elle est suffisamment implantée, il est alors trop tard pour pouvoir la contrôler. Pour résoudre ce dilemme, le magistrat préconise que la question de la confiance soit traitée sous plusieurs angles. D’abord, ex ante avec la définition de règles (éthique, conformité), puis ex post, avec la mise en place d’un régime de responsabilité et des sanctions, mais également sous l’angle technique (mise en place de mesures comme la journalisation et la documentation) et sous l’angle humain, en assurant une surveillance et un contrôle et en s’assurant de la capacité d’adaptation des uns et des autres avec des formations régulières. Yannick Meneceur a ensuite partagé avec l’auditoire le fruit de sa réflexion sur la gouvernance de l’IA, détaillée dans un article récent1 et soulignant ce qu’il appelle « l’effervescence des bonnes volontés », qui voit naître des bulles de normes, standards, chartes, règlements, bonnes pratiques destinées à encadrer cette nouvelle avancée technologique, qui cohabitent, s’agrègent, s’entrechoquent, ainsi que des acteurs qui prétendent réguler le phénomène. Pour rationaliser cet écosystème, il est nécessaire de définir un cap selon le but recherché. Ainsi, pour mettre en place l’IA au sein d’une organisation, il convient de mettre en place la gouvernance des systèmes, en protégeant les droits, en sécurisant les opérations et en contribuant au bien commun, et installer un cadre de confiance, grâce à la formation et des comptes-rendus réguliers. En outre, les utilisateurs de la technologie doivent également adopter des bonnes pratiques d’emploi et, en quelque sorte, s’autoréguler« L’humain doit donner le cap à la technologie, un cap humaniste », a-t-il conclu.

Construire la confiance

Mahasti Razavi a ensuite rappelé la singularité de la confiance, qui est, selon elle « une alchimie particulière », résultat d’une trajectoire et d’un parcours. « La confiance ne se décrète pas face à une technologie émergente, elle se construit », a-t-elle affirmé. Pourtant, elle pense que s’agissant de l’adoption de l’IA, dont l’impact est plus violent et plus rapide que celui des bouleversements technologiques précédents, les questions de droit liées à la définition des normes ou à la protection des données n’apparaissent que dans un second temps. « Peut-on répondre à ce besoin ? Résoudre ce cas d’usage ? », telle est la question qui se pose d’abord, celle de savoir si la promesse de l’outil est une réalité. Pour y arriver, l’avocate a expliqué qu’au sein du cabinet August Debouzy, un groupe de travail avait été mis en place pour utiliser, de manière intense, pendant un temps long et de manière monitorée, les produits proposés sur le marché, en les appliquant dans leurs dossiers, pour savoir s’ils pourraient donner lieu à un usage plus global. « Cette étape correspond à une phase que l’on pourrait qualifier de POC [proof of concept, ndlr], qui permet de vérifier l’adéquation d’un outil à un besoin », a-t-elle détaillé. C’est seulement ensuite qu’au sein d’un comité tech, les discussions sur la sécurité, la confidentialité et la transparence des données démarrent. Mahasti Razavi avertit cependant : l’adoption de l’outil n’est pas pour autant automatique une fois ces étapes franchies et elle est d’ailleurs souvent décorrélée de la question de la confiance, difficile à appréhender, au profit d’une « certaine réalité de marché ». Mahasti Razavi constate que le processus ainsi décrit se retrouve à plus grande échelle au sein de l’écosystème juridique, les usages des uns influant ceux des autres, ce qui n’exclut ni le contrôle, ni la sensibilisation des usagers. À ce niveau, constate-t-elle, l’IA Act et le RGPD tendent tout de même à créer un cadre de confiance qu’elle qualifie de « chance » pour l’Europe.

L’IA dans les médias

Laurent Guimier, journaliste, directeur général délégué de l’information de CMA Media, était ensuite convié à analyser le défi de la confiance en qualité d’éclaireur. L’occasion pour lui d’aborder les défis contemporains auxquels sont confrontés les médias. Et en premier lieu, la défiance dont ces derniers sont victimes. Pour expliquer son propos, il a d’abord souhaité démystifier quelques idées reçues. D’abord celui de la supposé émergence des fake news. Laurent Guimier a affirmé que « l’existence de la désinformation, des fausses nouvelles, du mensonge ne sont pas nouvelles dans le secteur des médias. Elles sont évidemment totalement indexées, consubstantielles et en tout cas accompagnent le journalisme, l’information depuis sa naissance ». Il a rappelé que même à Rome, Pline mentionnait déjà des feuilles de nouvelles sujettes à mensonges. Deuxième idée reçue : le journalisme se serait dégradé. Selon l’homme de presse, le journalisme est aujourd’hui meilleur en matière de traçabilité et de vérification des faits. Il en veut pour preuve : « aujourd’hui, lorsqu’un journal publie une faute d’orthographe ou diffuse une erreur factuelle, sur une antenne de radio ou de télévision, il reçoit tout de suite 25 tweets pour l’exécuter ». Dès lors, le journaliste est poussé à l’exigence et à une amélioration globale de son travail.
Laurent Guimier s’est également élevé contre l’idée que les Français se désintéresseraient désormais de l’information. Si la fatigue informationnelle est une réalité, Laurent Guimier a constaté que collectivement, grâce aux usages numériques, nous consommons beaucoup plus d’informations. Il a également insisté sur le changement radical apporté par la fin du monopole journalistique. L’arrivée des blogs et des réseaux sociaux a permis à n’importe qui de produire du contenu, et cette démocratisation de l’information a contribué à questionner la confiance envers les médias. Dans ce cadre, il conçoit l’impact de l’hyper-dématérialisation des médias sur la confiance du public. Selon lui, la matérialité du média, qu’il s’agisse d’écrit, de voix ou d’image, apporte une confiance qui lui paraît difficile à reproduire sur les plateformes numériques.
« À ce stade, a-t-il poursuivi, la question de la confiance dans le journaliste doit être analysée car elle est clairement remise en cause ». Il a donc rappelé l’importance de deux fonctions cardinales des médias. D’abord l’animation d’un débat public. Les journalistes doivent confronter sereinement et démocratiquement des opinions différentes, donner la parole à tous et pas uniquement aux personnalités en ligne avec l’affichage politique du support. « Les plateaux télévisés doivent débattre avec passion et objectivité », a-t-il lancé. Le directeur général délégué de l’information de CMA Media a ensuite rappelé l’importante de l’investigation. Dans ce cadre, l’IA va bien sûr permettre d’augmenter le travail du journaliste, même si les questions de traçabilité, d’éthique et de déontologie doivent rester au cœur des préoccupations des rédactions pour maintenir l’indispensable confiance du public.

Revue Dalloz IP/IT, mars 2025

Article sur le site de Lamyline : Le défi de la confiance en l’IA | Actualités du droit | LAMY LIAISONS

Anne Portmann
Chef de rubrique - Lamy Liaisons
Chloé Gardès
Chef de rubrique Vie des professions juridiques et judiciaires – Lamy Liaisons