Analyse du veto sur le projet de loi SB 1047 : une législation nécessaire ou une menace pour l'innovation en IA ?


Analyse du veto sur le projet de loi SB 1047 : une législation nécessaire ou une menace pour l'innovation en IA ?
Dans un acte marquant, le gouverneur californien Gavin Newsom a opposé son veto à la Senat Bill 1047 le 29 septembre dernier. Ce geste qui intervient dans l’un des plus importants foyers de l’innovation technologique est symbolique des difficultés et des enjeux liés à la réglementation de l’intelligence artificielle (« IA »).

L’exercice de la recherche de la juste mesure s’avère particulièrement périlleux sur un sujet suscitant d’aussi vifs débats et dans un contexte géopolitique toujours plus tendu.

D’un côté, les défenseurs de la régulation avancent la nécessité d’instaurer des règles de transparence et de responsabilité afin de protéger les utilisateurs. De l’autre, les opposants soutiennent que toute législation freinera l’innovation, notamment en imposant des coûts de conformité trop importants pour les potentielles start-ups. Le poison est dans la dose.

Le projet de loi SB 1047 pouvait-il répondre aux préoccupations grandissantes liées aux risques de l’IA, notamment en matière de biais, de transparence et de sécurité ?

Objectifs et mesures du projet de loi SB 1047 

Pour commencer, ce projet de loi ne visait que certains modèles d’IA. Le « covered model » désignait tout modèle d’IA dont la puissance de calcul lors de l’entraînement dépasse 10 puissance 26 opérations et dont le coût de développement dépasse 100 millions de dollars. Cette approche varie de celle retenue en Europe, qui englobe tous les systèmes d’IA, ainsi que de celle retenue en Chine, agencée autour de domaines spécifiques (IA générative, algorithmes, etc…).

Ensuite, cette loi exigeait des entreprises qu’elles adoptent des procédures de vérification pour s’assurer que les systèmes développés respectent des standards de non-discrimination et d’impartialité. Ces vérifications auraient pris la forme d’audits réguliers, de contrôle des données utilisées pour entraîner les algorithmes et de tests permettant de détecter les biais.

Résultante de la première exigence, ce projet imposait également des obligations de transparence des mécanismes automatisés. Les entreprises auraient été tenues de justifier les critères et les algorithmes utilisés dans leurs systèmes d’intelligence artificielle afin de permettre aux utilisateurs de comprendre le processus décisionnel sous-jacent. La volonté du législateur était d’instaurer une confiance accrue du public.

Enfin, le législateur désirait mettre en place des garde-fous, en particulier d’un « kill switch », mécanisme d’arrêt d’urgence qui aurait permis de désactiver un système d’IA en cas de dérive ou de dysfonctionnement.

Les arguments en faveur : vers un encadrement moral[1] de l’IA

Pour E. Kant, il existe des lois morales universelles auxquelles il est impossible de déroger sans perdre immédiatement tout sens de l’éthique. Pour les partisans de SB 1047, et plus généralement de la réglementation des systèmes d’IA, il est essentiel d’instaurer une réglementation qui assure une déontologie forte au sein des entreprises qui les développent.

Ces défenseurs d’un encadrement avancent effectivement que les algorithmes peuvent reproduire des inégalités sociales en raison des biais issus des données d’entraînement ou de la rédaction du code. En imposant des standards de non-discriminations, SB1047 aurait permis de limiter l’existence et l’impact de ces biais.

Ensuite, SB 1047 voulait imposer des obligations de transparence. Les entreprises auraient eu à expliquer les critères et les algorithmes utilisés dans les systèmes d’IA pour que les utilisateurs comprennent comment les décisions sont prises. L’objectif de cette mesure était à la fois de protéger les utilisateurs en garantissant une plus grande visibilité sur le processus de prise de décision automatisée mais également de renforcer ainsi la confiance du public.

Enfin, comme déjà exposé, SB 1047 ambitionnait d’imposer la mise en place de garde-fous pour la sécurité des utilisateurs. En plus du « kill switch », des protocoles de protection minimum auraient été mis en place afin de minimiser les risques de cyberattaques et prévenir les détournements d’usage.

Au-delà d’une analyse prosaïque des mesures contenues dans cette loi, il est possible d’avancer qu’instaurer un cadre et des principes clairs et définis permet de donner aux entreprises la prévisibilité indispensable à l’élaboration de leur planification stratégique, leur gestion des risques et l’optimisation des investissements.

Les arguments en défaveur : couper un élan vital[2] indispensable ?

L’élan vital est une force de création et de croissance, un « souffle » qui se manifeste par des poussées créatrices imprévisibles et innovantes. Cette vitalité permet de créer de nouvelles opportunités dans la matière. Or, imposer des contraintes complexes, parfois coûteuses, risque de couper le souffle à cet élan d’innovation.

La mise en place de procédures de vérifications et d’audit représente un coût élevé. Les entreprises en phase de développement risquent d’avoir du mal à supporter ce coût. La conséquence directe serait alors la concentration des technologies d’IA entre les mains de quelques grands acteurs, capables de se conformer à ces exigences. Il est possible de souligner que dans d’autres domaines très régulés, l’audit a pu devenir un pur exercice de conformité. Les grands plans de conformité ont rarement permis d’éviter les risques envisagés.

Par ailleurs, les obligations de transparence et leurs degrés pourraient poser des problèmes de propriété intellectuelle et de concurrence. Privées du privilège du « secret des affaires » et contraintes de divulguer leurs algorithmes, les sociétés risqueraient de perdre leur avantage compétitif et d’être victimes de parasitisme ou de plagiat. A l’inverse, ne les contraindre à fournir que des informations générales sur leur fonctionnement videraient cette obligation de son sens.

D’autres critiques rappellent le contexte de course mondiale à l’innovation dans laquelle la vitesse joue un rôle crucial. Une régulation entraîne une lourdeur administrative, freine le développement des projets d’IA et la réactivité des entreprises. Le rapport Draghi[3] souligne que le choix de l’Europe de privilégier la régulation à l’innovation est l’une des raisons qui explique que sur les cinquante leaders mondiaux, seulement quatre entreprises sont européennes.

Conséquences et impact

L’abandon de ce projet de loi soulève la question fondamentale de comment réguler un domaine qui n’est pas mature et dont on ignore encore les conséquences.

Une inspiration pourrait être tirée de la réglementation chinoise qui a préféré cibler des domaines spécifiques (algorithmes, IA générative, etc…) plutôt qu’une approche englobant tous les systèmes d’IA, réviser régulièrement ses dispositions pour s’adapter aux évolutions et encadrer son application par de multiples agences gouvernementales en fonction des secteurs. Cette approche très pragmatique semble apporter la prévisibilité nécessaire aux entreprises et encourager l’innovation. De plus, elle permet d’éviter l’adoption de réglementation « en réaction » à un risque qui s’est réalisé, généralement plus dures sans être plus adaptées.

En l’absence d’une réglementation fédérale, les professionnels du droit américains se retrouvent à devoir jongler avec une régulation fragmentée et des exigences variables selon les Etats. A l’inverse, les juristes français bénéficient d’un cadre, certes plus restrictif, mais plutôt uniforme au niveau national et européen.

Le véto à la loi SB 1047 maintient donc l’incertitude autour de la régulation de l’IA au Etats-Unis et pose des défis pour le futur de la conformité des entreprises américaines.

[1] Emmanuel Kant, « Les fondements de la métaphysique des mœurs » (1785), « La critique de la raison pure » (1781)

[2] Henri Bergson « L’évolution créatrice » (1907)

[3] « Rapport Draghi : un guide autant stratégique que diplomatique pour l’Europe », 9 septembre 2024

Eléonore Favero
Avocate associée au sein du cabinet Adlane Avocats