Aux termes de l’article 50 du règlement sur l’IA (règl. (UE) 2024/1689, 13 juin 2024, établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828), les fournisseurs et les déployeurs de certains systèmes d’IA sont soumis à des obligations de transparence. Ils doivent notamment veiller à ce que les contenus générés ou manipulés par l’IA soient marqués dans un format lisible par machine et identifiable comme tel. Les déployeurs de systèmes d’IA à des fins de deepfakes et de textes d’IA sur des questions d’intérêt public doivent également indiquer que les contenus ont été générés ou manipulés par une IA.
Le code de bonnes pratiques, rédigé par un panel d’experts et impliquant des participants de l’industrie, du monde universitaire et de la société civile, et des États membres, a pour objectif d’aider les fournisseurs et déployeurs de systèmes d’IA à satisfaire à ces exigences.
Ce premier projet distingue les fournisseurs de systèmes d’IA générative, dont les obligations s’appliquent dès qu’un contenu est généré ou modifié substantiellement par un système d’IA, et les déployeurs de systèmes d’IA, dont les obligations en matière de transparence sont circonscrites aux deepfakes et aux textes ayant trait à des questions d’intérêt public.
Pour les premiers, la Commission privilégie une tracabilité technique systémique des contenus, dès la conception des systèmes et pouvant être vérifiée. Pour les deuxièmes, le code propose l’utilisation de différents visuels destinés à signaler le recours à l’IA sur les contenus visés.
La Commission recueillera des commentaires sur le premier projet auprès des participants et des observateurs au code de bonnes pratiques jusqu’au 23 janvier. Les règles relatives à la transparence des contenus générés par l’IA deviendront applicables le 2 août 2026.
—