Si l’année 2023 a été marquée par les exploits – et les abus – des IA (intelligences artificielles) génératives d’images, 2024 sera celle de la contre-attaque ! Afin de protéger les artistes, dont les œuvres sont en grande majorité utilisées par les IA sans autorisation ni rémunération du créateur ou de ses ayants droit (et donc volées pour créer de nouvelles images plagiant leur style ou leur composition), une équipe de chercheurs de l’Université de Chicago, pilotée par Ben Zhao, a développé un programme informatique étonnant…
Baptisée « Glaze », cette nouvelle arme de défense permet d’insérer dans une œuvre des pixels invisibles à l’œil nu, qui rendront l’image floue et brouillée dès qu’une IA tentera de l’utiliser ! Déjà téléchargée plus de 1,6 million de fois, l’invention arrive à point nommé.
Frida Kahlo, Damien Hirst, Yayoi Kusama, Yves Klein dans les bases de Midjourney
Car justement, une liste de 16 000 artistes dont les œuvres auraient été rentrées dans la mémoire du fameux générateur d’images Midjourney vient de fuiter. Parmi ces noms figurent ceux de Frida Kahlo, Damien Hirst, Yayoi Kusama, Yves Klein, Anish Kapoor ou Daniel Buren, ainsi que d’autres plus méconnus, dont le travail ne peut être utilisé sans permission.
D’autres outils de défense fleurissent. Créé par la start-up Spawning, le site Have I Been Trained ? permet aux artistes de savoir si leurs œuvres ont été utilisées pour étoffer la base de données d’un logiciel d’IA. Conçu par les inventeurs de Glaze, le logiciel Nightshade est de son côté capable de faire dérailler le système de traitement des requêtes écrites soumises à l’IA par l’utilisateur, qui se verra fournir un élément différent de celui demandé !
Des outils pour piéger les fichiers
Un autre permet de contrer les collectes massives sur les plateformes d’images : grâce à Kudurru, mis au point par Spawning, l’artiste a le choix de bloquer le vol de son œuvre, ou d’envoyer à l’IA une image n’ayant rien à voir avec la sienne. Dans le même esprit que Glaze, AntiFake permet, quant à lui, de piéger un fichier audio en empêchant les IA de réutiliser une voix pour un deepfake.
Plus que des systèmes de protection, ces outils sont donc à même de saboter le fonctionnement des intelligences artificielles en exploitant leurs failles, jusqu’à les discréditer auprès de leurs utilisateurs. De quoi, peut-être, freiner leur développement pour mieux les forcer à respecter les règles en matière de droits d’auteur !