Droit d’auteurs vs. Entrainement des systèmes d’IA
Pour être performants, les outils d’IA sont entrainés (« machine learning ») généralement sur la base d’un apprentissage statistique à partir de jeux massifs de données, où des modèles internes identifient des modèles pour produire des résultats jugés pertinents.
Ce sujet fait l’objet de débats et de travaux depuis des années, notamment autour de la question de l’utilisation de contenus protégés dans ce cadre. Certains médias, par exemple, ont négocié des accords de rémunération pour l’entrainement des outils d’IA sur leurs contenus. D’autres ont initié des procès contre plusieurs acteurs dominants du secteur.
Mais, comment agir efficacement en contrefaçon contre les systèmes d’IA, devenus des mastodontes de la création, sans avoir accès aux données d’entrainement, et donc sans pouvoir prouver avec certitude un usage non autorisé d’une œuvre précise ?
En décembre 2025, plusieurs sénateurs ont déposé une proposition de loi visant à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation.
Les systèmes d’IA : vers une présomption de contrefaçon ?
En droit de la propriété intellectuelle, la reproduction ou l’imitation d’une œuvre protégée, sans l’autorisation de son auteur, constitue une contrefaçon. Pour le prouver, il appartient au titulaire des droits qui s’estime lésé de démontrer en quoi une œuvre est contrefaisante de la sienne, en appréciant l’impression d’ensemble et en évaluant les ressemblances entre elles. Une telle démonstration est accessible pour les titulaires de droits s’agissant des résultats générés par l’IA, mais leur est matériellement impossible pour la phase en amont d’entrainement du système.
C’est ici que la proposition de loi leur faciliterait la tâche : sans qualifier l’usage de contrefaçon, dont l’appréciation sera à réaliser au cas par cas, la proposition de loi vise à instaurer une présomption (simple, et donc renversable) d’exploitation d’une œuvre par le système d’intelligence artificielle, dès lors qu’un indice « afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation. »
Ainsi, il appartiendrait au fournisseur de l’outil d’IA de prouver qu’il bénéficie d’une autorisation d’exploiter l’œuvre protégée ou que l’œuvre n’a pas été utilisée dans le cadre de l’entrainement de l’IA concernée.
Cette proposition de texte, in fine, faciliterait la qualification juridique ultérieure de contrefaçon.
Une contrefaçon possible au stade de l’inspiration ?
Traditionnellement, la création résulte d’un processus complexe et personnel, incluant l’inspiration. Laquelle peut d’ailleurs être plus ou moins évidente, plus ou moins volontaire.
Mais, à travers notre prisme judiciaire actuel, l’appréciation de la contrefaçon s’effectue sur le résultat (la matérialisation de ce processus de création) : celui-ci reproduit-il une œuvre antérieure protégée ?
Si les sources d’inspirations vont jouer un rôle important s’agissant de la détermination de l’originalité (l’empreinte de la personnalité de l’auteur qui représente le critère central de la protection), l’inspiration n’est pas, en principe, un acte de contrefaçon : une utilisation ou une reproduction n’est pas juridiquement caractérisée si celle-ci reste dans l’esprit d’une personne.
C’est pourtant bien au stade de ce processus « créatif » que les systèmes d’IA bouleversent l’approche. Car, ce que l’on qualifiait d’inspiration dans le cerveau humain est un entrainement pour un système d’IA, lequel suppose des actes de reproduction plus matériels. Or, l’acte de reproduction ouvre la porte de la contrefaçon.
La présomption d’exploitation, prévue par la proposition de loi, ne vise donc pas la création produite par l’IA (le résultat), mais le traitement des contenus protégés par le droit d’auteur au sein du processus d’entrainement, préalable à la création par l’IA, allant au-delà de notre conception classique de la contrefaçon et nécessitant donc de nouveaux outils.
Prochaines étapes ?
A ce stade, il n’est pas certain que cette proposition aboutisse et, quoi qu’il en soit, le texte générerait des incertitudes en pratique en raison de la marge de subjectivité importante laissée dans l’appréciation : quel « indice » (au singulier dans le texte) serait pertinent/suffisant ? Qui est l’auteur de la contrefaçon, un système d’IA n’ayant pas de personnalité juridique ? Comment s’apprécie la « vraisemblance » visée ? Serait-ce pertinent d’introduire un recours contre un éditeur d’IA outre-Atlantique ?
Ce projet de loi marquerait une innovation juridique notable, reflétant l’attention croissante portée au rôle des systèmes d’IA dans l’écosystème culturel et intellectuel. Tout en conférant un rôle déterminant aux Juges et aux praticiens pour sa mise en œuvre effective.
A suivre…
—