Nomination d'une IA en tant que ministre en Albanie : quelles pistes d'avenir ?


Nomination d'une IA en tant que ministre en Albanie : quelles pistes d'avenir ?
La désignation d’une intelligence artificielle en tant que ministre d’un gouvernement soulève des questions relatives à la responsabilité et à la souveraineté des Etats.

Le 11 septembre dernier, les Albanais ont eu la surprise de découvrir la nomination de Diella – une intelligence artificielle – au poste de ministre des Marchés publics. Sur décision du premier ministre Edi Rama, celle-ci a été nommée afin d’endiguer la corruption dans les matières liées au poste ministériel de Diella – les marchés publics.

Cette nomination pourrait faire sourire – notamment pour une promotion fulgurante et tout autant suspicieuse pour une IA qui n’occupait jusqu’ici que la fonction d’assistant virtuel pour guider les citoyens sur les sites gouvernementaux depuis janvier 2025 – si toutefois elle n’avait pas vocation à donner à l’UE des garanties sur la lutte contre la corruption.

Cet objectif soulève alors un certain nombre de questions, notamment sur le contrôle de Diella sur les responsabilité y étant relatives.

Tout d’abord, on pourrait s’étonner de la nomination d’un nouveau ministre sans fondement juridique adéquat. Aussi, il semble que ce soit le premier ministre qui ait pris un décret visant à nommer Diella à son poste, la faisant dépendre directement de ses fonctions. Il est déduit que le premier ministre assume le rôle politique qu’il a entendu faire jouer à Diella.

Du côté technique, c’est l’agence nationale Albanaise pour la société d’information (AKSHI) qui a développé Diella avec l’appui de microsoft notamment pour le développement du langage en albanais[1]. Cette agence, elle-même placée sous l’autorité du cabinet du premier ministre, est soutenue financièrement par l’UE afin de l’outiller, ainsi que l’agence relative à la cybersécurité d’outils, pour promouvoir l’usage du numérique en Albanie[2]. En d’autres termes, ces agences soutenues par l’UE jouent un rôle de promotion des outils numériques tant auprès de la population qu’auprès de l’Etat, dans une approche technique et sécuritaire.

On comprend donc que, au-delà du « coup de com’ » engendré par cette nomination, celle-ci vise aussi à tester à grande échelle l’éventuelle probité d’un système d’IA.

Alors si l’IA se voyait réellement confiée des responsabilités, se poserait nécessairement la question de sa responsabilité politique mais également de sa responsabilité juridique.

D’un point de vue politique, c’est donc le premier ministre qui porte la responsabilité des choix ou des avis de Diella. En effet, comme une IA ne possède pas (encore ?) de personnalité morale, qu’elle n’est donc pas capable juridiquement et que c’est le premier ministre qui a nommé Diella on peut en déduire que c’est le premier ministre qui porte sa responsabilité politique.

Cette hypothèse nous semble corroborée par le fait qu’en étant développée par l’agence placée sous l’autorité du premier ministre, il pourrait en être déduit également une responsabilité fonctionnelle pesant sur les épaules dudit premier ministre.

D’un point de vue juridique, en toute hypothèse, comment se répartiraient les responsabilités si l’Albanie était sous juridiction européenne ?  En se fondant sur l’article 25 du RIA, il est déduit que l’AKSHI sera également responsable en tant que Fournisseur de SIA et le premier ministre – voire par là même l’État Albanais – responsable en tant que fournisseur et/ou déployeur d’IA, selon le cas.

Sans nul doute, si l’objectif initial était de fournir des garanties à l’UE, cela permettrait à cette dernière de tester sa réglementation a une échelle gouvernementale…

Par ailleurs, comment s’assurer que l’IA ne subisse aucun biais lors des consultations ? Au-delà de la question des hallucinations et en l’état de la technique, il faudrait alors s’assurer que ses sources sont maitrisées et qu’elles permettent de fournir une information non orientée.

Cette dimension interroge alors de l’implémentation d’une IA qui serait fournie par une société ayant son siège social dans un Etat pour fournir des IA ministérielles ou gouvernementales à un ou plusieurs Etats. Dans quelle mesure, malgré toutes les précautions contractuelles, l’Etat utilisateur pourrait garantir à ses citoyens la souveraineté des décisions prises ? En d’autres termes, comment un Etat peut se garantir d’interférences étrangères quand il ne maitrise pas le fonctionnement de son SIA ou, encore, comment l’Etat peut garantir à ses citoyens que les sources utilisées ne sont pas biaisées ?

Il serait naïf d’estimer que seul un contrat pourrait protéger de ces suspicions. Même en renforçant les bases de données et en améliorant la transparence des modèles, ne serait-ce qu’en choisir permettra toujours d’alimenter les suspicions quant aux sources d’alimentation de l’IA mais également aux méthodologies d’apprentissage et à l’identité juridictionnelle de la société fournissant ou déployant l’IA.

Ainsi, la sensibilité aux questions d’intelligence économique va nécessairement provoquer la création d’IA nationales ou souveraines, certainement appuyées par des géants du secteur, ce qui permettra de gagner en autonomie mais pas nécessairement en suspicion de partialité. In fine, peut-être que la meilleure garantie possible, d’un point de politique comme d’un point de vue juridique, sera toujours (i) d’obliger un humain à endosser la responsabilité des choix qui seront pris sur la base des informations délivrées par l’IA et (ii) de compartimenter les pouvoirs au lieu des concentrer entre les mains d’un gouvernement ou d’autorités dont les responsables sont nommés par un gouvernement.

[1] https://www.itforbusiness.fr/short-s2e29-lhistoire-derriere-diella-lia-devenue-ministre-albanaise-94603

[2] https://europeannewsroom.com/fr/le-soutien-de-lue-garantit-a-lakshi-et-a-laksk-en-albanie-lacces-a-des-logiciels-de-cybersecurite-de-classe-mondiale/

Romain Waïss-Moreau
Associé chez LWM