- S’adresse également aux risques moins visibles, ceux qui sont produits par le seul fait de télécharger une image ou une vidéo sur un système d’IA, bien que le résultat ne soit pas publié
- L’Agence ajoute que certains comportements peuvent porter atteinte à des droits tels que l’honneur, la vie privée ou l’image de soi et que, en cas d’indications claires de la criminalité, l’action serait menée par les autorités policières, le ministère public et, le cas échéant, les organes judiciaires
L’Agence espagnole de protection des données (AEPD) a publié une note d’information dans laquelle elle analyse les implications de l’utilisation d’images provenant de tiers dans les systèmes d’intelligence artificielle et les risques encourus, même dans des contextes apparemment triviaux ou ludiques.
La première section de la note se concentre sur l’impact visible dérivé de la génération et de la diffusion d’images provenant de tiers à l’aide de l’IA. Le document accorde une attention particulière aux situations à haut risque, telles que la sexualisation et le contenu intime synthétique, l’attribution d’événements non réels avec des effets sur la réputation, la décontextualisation des images ou l’utilisation de contenus qui touchent des mineurs ou des personnes en situation de vulnérabilité particulière.
La deuxième section traite des risques les moins visibles, ceux qui sont produits par le seul fait de télécharger une image ou une vidéo sur un système d’IA, bien que le résultat ne soit pas publié. Parmi eux, l’Agence souligne la perte effective de contrôle sur l’image en faisant intervenir un tiers technologique, la conservation et l’existence de copies non visibles, l’intervention de multiples acteurs, la génération de métadonnées ou encore le risque d’identification persistante dans des systèmes capables de réutiliser les traits d’une personne dans de multiples contenus.
Enfin, la note identifie les situations qui sont généralement particulièrement pertinentes pour l’AEPD, en clarifiant les limites de la réglementation en matière de protection des données, par exemple, dans les sphères personnelles ou domestiques sans diffusion au-delà de cet environnement.
L’Agence accorde une attention particulière aux cas où l’utilisation d’images ou de vidéos de tiers par le biais de systèmes d’intelligence artificielle augmente considérablement les risques pour la personne concernée. Cela se produit, en particulier, lorsqu’il y a une perte effective de contrôle sur l’image elle-même, que des contenus crédibles générés peuvent attribuer à la personne des événements ou des comportements qui ne se sont pas produits, que des mineurs ou surtout des personnes vulnérables sont impliqués, que des éléments de sexualisation, d’humiliation ou de discrédit sont introduits, ou que les contenus sont diffusés dans des environnements dans lesquels l’impact personnel, social ou professionnel peut être particulièrement intense.
L’Office ajoute également que d’autres droits fondamentaux, comme l’honneur, la vie privée ou l’image de soi, peuvent être affectés et que d’autres règles du système juridique, y compris le Code pénal, peuvent être applicables. En cas d’indications claires de la criminalité, l’action serait menée par les autorités policières, le Parquet et, le cas échéant, les organes judiciaires, compétents pour enquêter et poursuivre pénalement ces actes.
Avec cette publication, l’AEPD renforce son travail de prévention et de sensibilisation, offrant aux citoyens des critères clairs pour comprendre l’étendue des risques liés à l’utilisation des images dans les systèmes d’IA, en favorisant une utilisation responsable et respectueuse avec les droits fondamentaux.
—
L’usage d’images provenant de tiers dans les systèmes d’IA et leurs risques visibles et invisibles
—