Piéger ses oeuvres pour se protéger contre l’exploitation illégale des IA.
- prescillalaz
- 16 févr. 2024
- 3 min de lecture
Les noms de 16 000 artistes spoliés par le générateur d’images Midjourney ont fuité. Parmi eux figurent Damien Hirst, Yayoi Kusama, Jean-Michel Basquiat, Anish Kapoor ou encore notre Street artiste national C215. Leurs œuvres ont été exploitées illégalement pour entraîner ce modèle d’IA et c’est grâce à l’envoi, par erreur, d’un mail contenant le lien d’un Google doc que le pot aux roses à été découvert.
Afin de protéger les artistes, dont les œuvres sont majoritairement utilisées par les IA sans autorisation ni rémunération du créateur, des développeurs se sont mobilisés pour proposer des outils technologiques qui permettent de protéger les œuvres humaines des intelligences artificielles génératives. Ces outils protecteurs sont aussi capables de saboter le fonctionnement des intelligences artificielles au point de les discréditer auprès de leurs utilisateurs.
À présent, faisons un tour d’horizon des armes high-tech mises à la disposition des auteurs et de leurs ayants droit.

Glaze : L'embrouilleur
Une équipe de chercheurs de l’Université de Chicago a développé un programme baptisé « Glaze » et qui a déjà été téléchargé plus d’un million de fois. Glaze ajoute aux œuvres des pixels invisibles à l'œil humain pour perturber le travail de l'IA. Ces pixels vont flouter l’image dès qu’une intelligence artificielle voudra l’utiliser.
Have I Been Trained ? : Le détective
Ce logiciel permet aux artistes de savoir si leurs œuvres ont été utilisées, pour ne pas dire « pillées », pour alimenter la base de données d’un logiciel d’IA générative. C’est une étape qui permet aux artistes de reprendre un certain contrôle sur la manière dont leur travail est utilisé par les systèmes d'intelligence artificielle.
Sa fonction principale est de vérifier si leurs créations ont été utilisées pour alimenter et entraîner des outils d'IA. Les utilisateurs pourront aussi demander à ce que leur travail soit exclu des données d’entraînement.
Nightshade : L’illusionniste
Ce logiciel représente un grand pas en faveur de la protection des droits de propriété intellectuelle.
Conçu par les inventeurs de Glaze, Nightshade peut faire dérouter les prompts (phrases ou mots-clés guidant les modèles d'IA dans la création de contenu) que vont soumettre les utilisateurs aux IA génératives. Ils se verront proposer un élément très différent de leur requête, car Nightshade modifie le code des pixels pour tromper les algorithmes.
Cela a pour conséquence d’altérer les images que les IA génératives vont intégrer dans leurs bases de données. Par conséquent, lorsque l’IA tentera de créer de nouvelles images, elle va mal interpréter les données et va produire des contenus déformés ou incorrects. Ce logiciel est donc pensé comme un illusionniste malveillant qui va procurer à l’IA un contenu radicalement altéré.
Par exemple, là où l’humain verra un singe sur le sable l’IA y verra un manteau de fourrure posé sur une plage.
Kudurru : L'armurier
Pour la petite histoire, dans la Mésopotamie kassite, le Kudurru est une stèle sur laquelle sont inscrites des donations de terre. Ce sont des monuments à valeur juridique, gravés d’une charte de propriété, destinés à être déposés dans un temple.
Cette « charte de propriété » fait écho à la protection des droits de propriété intellectuelle voulus par la start-up Spawning qui a créé ce logiciel.
Celui-ci détecte et repousse les tentatives de collecte massive d'images par les plateformes d’intelligence artificielle. Par la suite, l'artiste aura le choix des armes entre le blocage de l'accès à ses créations ou l’envoi d’une autre image que celle demandée à l’instar de Nightshade.
AntiFake : L’arroseur arrosé
Un deepfake est basiquement un faux enregistrement vidéo ou audio très crédible réalisé ou modifié grâce à l'intelligence artificielle. Désormais des applications telles que Deepswap ou Reface rendent cette technologie à la portée de tous. Par conséquent, il était malheureusement prévisible de voir apparaître des dérives avec des vidéos pouvant faire dire n’importe quoi à n’importe qui.
Mais heureusement le logiciel Antifake lutte contre la désinformation en piégeant un fichier audio pour empêcher la réutilisation d’une voix. Il s’agit d’un filtre qui va ajouter de légères perturbations autour de la voix, ce qui va complètement désorienter les intelligences artificielles qui généreront une voix complètement différente.
Face aux intelligences artificielles de toutes sortes, nous attendons avec impatience une réglementation effective et impartiale pour ne pas assister à l'obsolescence programmée de notre bien-aimé code de propriété intellectuelle. Force est de constater que c'est le secteur privé qui redouble d'efforts pour venir en aide à nos auteurs.
Affaire à suivre...
Komentarze