Lutte contre la fraude : IA y es-tu ?


Lutte contre la fraude : IA y es-tu ?
L’usage des technologies par l’administration est un sujet récurrent d’inquiétudes, en témoignent les récentes controverses liées à l’algorithme utilisé par la Caisse d’Allocations Familiales, ou au lancement de l’expérimentation « vidéo-intelligentes » en vue de la sécurisation des jeux olympiques. Un récent rapport sénatorial s’est intéressé au déploiement de l’IA en matière de lutte contre la fraude. Synthèse.

La légitimité de l’innovation en matière de lutte contre la fraude

Le service public est confronté aux mêmes enjeux que le secteur privé : intensification des flux, raccourcissement des délais de traitement des sujets : le progrès technologique constituerait une réponse évidente aux besoins d’efficacité et d’optimisation.

L’introduction de nouveaux outils capables de libérer les agents administratifs de tâches répétitives, chronophages, peu stimulantes et donc sources d’erreurs pourrait ainsi avoir un impact positif sur la qualité des services proposés (meilleure allocation de moyens budgétaires, humains, etc.). Or, l’impact du progrès technique est à nuancer : si l’introduction de l’électricité a produit des résultats saisissants sur le développement de l’économie, l’apparition d’internet et des smartphones n’a eu qu’un impact « modeste », voire « imperceptible » sur les gains de productivité.

Le rapport rappelle qu’il est nécessaire de s’équiper d’outils qui intègrent une « dimension métier » et que les technologies génériques dites « sur étagère » peuvent n’apporter qu’une aide limitée.

Ainsi, équiper le service public d’intelligences artificielles adaptées a montré l’intérêt de ces technologies (citons l’exemple du projet « Llamandement », outil de gestion des amendements parlementaires automatisant le traitement d’informations textuelles complexes). Cependant, l’intégration de chatbots a pu montrer les limites de tels outils, du point de vue de leurs cas d’usage effectifs, des résultats obtenus et donc de leur intérêt opérationnel.

Par ailleurs, l’innovation répond à certaines questions fondamentales concernant la pertinence de l’action publique. Lorsque des activités régaliennes sont en situation de monopole légal, le refus de l’innovation ne conduit-il pas à une remise en cause de leur légitimité ? Comment justifier de ne pas développer des outils qui permettent à l’administration de lutter « à armes égales » avec les fraudeurs, lorsque l’usage des technologies se banalise auprès du public ?  L’amélioration de l’efficacité des services rendus aux bénéficiaires ne conduit-elle pas à augmenter la demande et, en conséquence, à augmenter et diversifier l’offre proposée ? Si l’administration développe elle-même ses outils, ne peut-elle pas envisager de les valoriser auprès du secteur privé voire, auprès d’autres marchés ?

La perspective d’accéder à la tant recherchée « révolution numérique » ne doit néanmoins pas faire oublier que, d’après l’INSEE, « 15% de la population est en situation d’illectronisme en 2021 ». La prise en compte des spécificités et des besoins de chaque service, de chaque public visé est une des conditions sine qua non de l’efficacité technologique. La construction de modèles théoriques mêmes puissants ne peut à elle seule soutenir l’action de terrain et ne pourra pas non plus légitimer le recours aux nouvelles technologies si elle supprime la pertinence des services de l’Etat pour ceux qui en ont besoin et si elle biaise les programmes de lutte contre la fraude.

L’usage de l’IA par l’administration en matière de lutte contre la fraude

Le rapport se concentre sur l’activité de cinq administrations, chargées de trois grandes missions : collecter l’impôt, assurer la redistribution, lutter contre la fraude fiscale et sociale ainsi que le non-recours aux prestations sociales. Ces entités utilisent, comme « matière première » de leur activité, de l’« information ». Cette « information » se compose d’images, de chiffres, courriels, comptes-rendus, pièces justificatives, etc. De natures diverses, ces informations peuvent être intégrées dans des systèmes d’informations lorsqu’elles sont nomenclaturées et standardisées, mais certaines d’entre elles nécessitent une approche technologique plus innovante pour pouvoir être exploitées utilement.

Le rapport souligne la tentation d’utiliser à mauvais escients des termes en vogue : il est ainsi « facile de voir de l’IA partout, et depuis longtemps, car il n’existe pas de frontière nette entre ce qui est de l’IA et ce qui n’en est pas ». La réalité du recours à des technologies d’intelligence artificielle est à nuancer et ce malgré le fait que les services publics se soient dotés d’outils technologiques parfois innovants : « Dans sa communication sur le sujet, l’administration joue parfois sur ce flou pour « recycler » sous un vocable nouveau et à la mode des projets qui en réalité ne reposent que peu, voire pas du tout, sur l’IA au sens actuel ».

Plutôt que de parler d’IA sans nuance, il est donc préférable de s’intéresser aux technologies réellement déployées dans les opérations de lutte contre la fraude.

Il convient de distinguer entre l’exploitation en masse de données (ou datamining, qui « utilise assez peu l’intelligence artificielle »), l’apprentissage supervisé (un modèle entraîné à reconnaître des caractéristiques de fraudes déjà connues grâce à un étiquetage des données), l’apprentissage non supervisé (un modèle qui établit lui-même des corrélations statistiques entre des données non étiquetées), l’apprentissage par renforcement (un modèle apprenant par expérience grâce à un système de récompense) et les IA génératives (un modèle capable de générer du contenu basé sur des données textuelles non structurées, y compris fournies en langage naturel).

La technologie de datamining pour détecter et modéliser des anomalies et irrégularités est exploitée depuis plusieurs années en matière fiscale, avec des résultats jugés satisfaisants du point de vue des gains de productivité. Cependant, cette technologie n’entraîne pas une mise en œuvre automatique de contrôles : son objectif est de détecter des anomalies pour proposer un programme de contrôle.

De même, les sommes mises en recouvrement par l’administration fiscale en 2023 (15,2 Md€ contre 14,6 Md€ en 2022, selon le rapport) correspondraient en réalité à un niveau déjà atteint à plusieurs reprises par le passé. La part des dossiers de particuliers contrôlés faisant l’objet d’un redressement serait restée constante depuis 2018. Il n’est en conséquence pas certain que le datamining permette réellement de mieux détecter la fraude elle-même.

Si datamining et IA ne sont pas des technologies synonymes (la première pouvant être appuyée par la seconde), il est intéressant de relever que l’administration utilise assez peu les possibilités d’apprentissage offertes par le recours au datamining, caractéristiques des systèmes d’intelligence artificielle. La contribution de l’IA dans le cadre du datamining serait en fin de compte « assez modeste », et reposerait sur des modèles « relativement basiques, bien loin de l’état de l’art de la technologie (…) et loin de ce qui se fait couramment dans les grandes entreprises pour répondre à leurs besoins métiers ».

Pour l’heure, « il semble que l’IA sert à mieux détecter la fraude que l’on connaît, mais pas celle que l’on ne connaît pas » : l’administration utilise la technologie pour optimiser sa manière de travailler, pas encore pour la transformer. L’IA générative est par exemple, d’après les auteurs du rapport, totalement absente des activités de lutte contre la fraude.

Le rapport cite cependant deux exemples basés sur des technologies d’apprentissage, qui peuvent nuancer la perspective d’une administration usant, ou appelée à user massivement de l’IA dans ce domaine.

Le dispositif « Foncier innovant » de la DGFiP, qui utilise des images aériennes pour détecter des constructions ou aménagements non déclarés, a été généralisé en 2023 à l’ensemble de la métropole en raison de ses résultats encourageants. Le projet « 100% scanning » de la DGDDI, qui détecte certains produits stupéfiants envoyés par fret express et postal, n’est pour l’heure pas encore opérationnel malgré son très haut degré de précision (80%). En effet, le déploiement de cette technologie nécessite d’acquérir du matériel puis de l’intégrer au sein des chaînes de traitement des colis dans les centres logistiques.

Quelles perspectives pour l’administration ?

Distinction précise des technologies utilisées, identification de leurs capacités et usages réels, adaptation des solutions aux besoins, rationalisation des moyens et des projets : l’acceptabilité du recours à l’IA aux yeux du grand public et des agents eux-mêmes reposerait un cadre d’expérimentation respectueux des dispositions juridiques applicables et des possibilités techniques réelles des outils utilisés, pour ne pas donner l’impression de développer un système inique, ou dégradant la qualité des services proposés au public.

L’administration doit, en matière de lutte contre la fraude, affronter les mêmes dilemmes que dans n’importe quel autre contexte. Efficacité et incidences négatives, acceptabilité et limitation des possibilités, qualité et coûts, développement interne ou recours à des solutions tierces : autant de sujets à articuler afin de ne pas exposer les données des citoyens à des vulnérabilités, dégrader la situation des usagers, introduire des biais de conception et des inégalités, diminuer les compétences de l’Etat en diluant des responsabilités déléguées à un trop grand nombre d’acteurs.

La question n’est donc pas de savoir si l’administration utilise ou non de l’IA, ni même si elle devrait en utiliser davantage, mais de savoir comment l’IA doit être intégrée à l’action publique. Il ne s’agit pas tellement d’une question de principe, mais d’une question de mise en œuvre.

Une question juridique ? Une question de bon sens.

Eléonore Favero
Avocate associée au sein du cabinet Adlane Avocats