Le droit et l’innovation juridique au service de la technologie durable


Le droit et l’innovation juridique au service de la technologie durable
Anticiper le cadre juridique pour éviter d’anéantir le modèle économique transformé par l’IA. Mais aussi innover pour faire de la règle de droit un atout concurrentiel dans un domaine où la durabilité reste à inventer.

Dans une seconde section, après avoir mis en évidence les règles applicables à l’IA, le rapport du think-tank français Digital New Deal élargit la réflexion aux autres pans du droit : droit civil, commercial, environnemental. Il alerte tout à la fois sur les effets de la technologie sur ces différents secteurs, par exemple une technologie élément de déstabilisation du droit social, mais aussi sur le besoin d’anticiper le cadre qui s’applique. Comme pour la première section, le rapport plaide pour des cadres juridiques qui ne soient pas des freins mais bien des leviers au service d’une IA responsable, durable et compétitive. Selon les auteurs du document, le droit n’est pas une contrainte mais bien un levier d’innovation.

Le rapport alerte sur trois risques juridiques qui doivent être évités par toute entreprise souhaitant recourir à l’IA car ils pourraient être fatals à un lancement de projet. En tout état de cause, il prône la vigilance. « Il est nécessaire d’identifier dès le début d’un projet, et à chacun de ses changements majeurs, les cadres juridiques susceptibles d’être percutés par le modèle développé. »

Faire une analyse des risques juridique au préalable

Parmi les premiers risques évoqués, celui d’un changement réglementaire ou législatif susceptible de forcer un changement de modèle économique. Le rapport prend l’exemple des acteurs des jeux à objet numérique, où le régime juridique proposé encadre l’activité bien au-delà des mécanismes d’auto-régulation prévus par les acteurs, et en limitant les gains en cryptomonnaie affecte l’attractivité du modèle. Second risque déjà évoqué dans le précédent billet, celui d’une complexité trop importante due à un enchevêtrement de règles, les règles sectorielles et celles applicables au numérique. Enfin le rapport pointe le risque d’une non-conformité du fait de l’application d’une règle non ou mal anticipée, comme pour les sujets de propriété intellectuelle.

De manière plus précise, le document balaie trois pans du droit percutés par l’IA. Celui du droit social, où le déploiement insuffisamment anticipé d’une technologie est bloqué par les règles qui régissent la consultation des partenaires sociaux, et de manière plus large par le manque d’adhésion interne. Ainsi chez Metlife France (acteur de l’assurance-vie), cinq projets d’intelligence artificielle ont été déployés, dont un projet de lutte contre la fraude documentaire. Ils ont été stoppés par le tribunal de Nanterre qui a ordonné, dans l’urgence, l’arrêt du déploiement des cinq projets en question, dans l’attente de la fin de la procédure d’information du CSE. Le rapport rappelle que le code du travail prévoit l’information et la consultation du CSE « préalablement à tout projet important d’introduction de nouvelles technologies, lorsque celles-ci sont susceptibles d’avoir des conséquences sur l’emploi, la qualification, la rémunération, la formation ou les conditions de travail. » Il s’agirait alors d’inclure les représentants du personnel en amont dans les discussions sur l’usage de l’IA pour éviter la défiance interne et favoriser l’adhésion.

Le rapport s’intéresse ensuite au bouleversement de l’IA sur le droit de la propriété intellectuelle, et notamment à la création de contenus totalement inédits à partir de données disponibles – et ingérées par la machine. En résulte le traditionnel conflit entre la création et la protection des droits d’auteur. Ici le document pointe le fait qu’il s’agit davantage de discuter de l’originalité d’un contenu créé par apprentissage de contenus pré-existants, et de s’en inspirer plus ou moins librement. Et ce qui dérange soulève le rapport, c’est moins de discuter de l’originalité du contenu nouvellement créé que du fait qu’il a été créé par une machine. Il convient alors de trouver un moyen de monétiser les créations précédentes, dans une logique de distribution et de partage de valeur entre l’humain et la machine.

Enfin le droit de la concurrence est aussi chamboulé par l’IA. Selon un rapport de l’Autorité de la concurrence, les barrières à l’entrée sont élevées (puissance de calcul, expertise juridique, volume de données à mobiliser, compétences techniques), et les risques de verrouillage d’accès par les grands acteurs, notamment fournisseurs de services de cloud, réels. Les investissements physiques nécessaires mettent les entreprises qui fournissent déjà des services de type cloud  en position de force.

En défi : proposer des règles de durabilité contraignantes comme atout compétitif

Dans sa seconde partie, le rapport interroge la notion de durabilité et la façon dont l’IA peut volontairement choisir de s’inscrire dans la durée en limitant son empreinte. Il regrette que L’IA Act ne fasse que très peu référence à la durabilité. Le rapport constate qu’il n’y a aucune exigence sévère en la matière.

Mais sur une note plus optimiste et volontariste, il rappelle que les entreprises peuvent déjà s’appuyer sur des mécanismes connus, auxquels les plus grandes d’entre elles sont déjà soumises. Ainsi du devoir de vigilance, apparu en droit français dans une loi de 2017 pour les entreprises de plus de 5000 salariés en France et les critères sociaux et environnementaux, contenus notamment dans la directive CSRD, même si les obligations ont été  revues à la baisse.

Le rapport voit dans la mise en œuvre des règles de durabilité un atout dans un marché mondialisé. Il relève que même en l’absence de règles préalables, vouloir faire de l’IA un instrument de la transition n’est possible que si son usage est compatible avec cet objectif. La question des droits environnementaux a été abordée dans un précédent article, mais celle des droits humains, et notamment de l’usage de freelances à grande échelle a été mise de côté. La régulation européenne aurait alors une carte à jouer pour créer une « marque » IA européenne : durable, éthique, transparente. Et compétitive.

Marine Landau
Journaliste