Le 12 novembre 2024, l'artiste australien Stephen Cornwell utilise des outils avancés pour protéger son œuvre des utilisations non autorisées par l'intelligence artificielle (IA). Ses créations numériques, souvent inspirées par des thèmes gothiques et d'horreur, sont modifiées d'une manière imperceptible pour les yeux humains, mais qui confond les systèmes d'IA.
Cornwell fait partie d'un mouvement croissant parmi les artistes qui prennent des mesures proactives contre les entreprises d'IA qui utilisent des matériaux protégés par le droit d'auteur sans consentement. Ces entreprises, dont OpenAI, Google et Meta, ont été critiquées pour leur manque de transparence concernant les sources de données utilisées pour former leurs modèles d'IA.
Des chercheurs de l'Université de Chicago ont développé des outils comme Glaze, qui modifie les pixels d'image pour empêcher l'IA de reproduire fidèlement le style d'un artiste. Un autre outil, Nightshade, perturbe la formation de l'IA en modifiant la perception des images par l'IA, empoisonnant ainsi les données utilisées pour la formation.
Bien qu'il ait un avertissement sur son site Web contre le scraping non autorisé, Cornwell a commencé à utiliser Glaze pour protéger son style distinctif. Il considère ces outils comme essentiels pour que les artistes reprennent le contrôle de leurs œuvres créatives.
Cornwell exprime des préoccupations concernant les implications de l'IA sur les arts, plaidant pour des mesures législatives en Australie similaires à celles en Europe qui permettent aux individus de refuser l'utilisation de leurs données pour la formation de l'IA. Il a noté la campagne en cours de la Media, Entertainment and Arts Alliance (MEAA) pour des protections plus solides pour les artistes.
Bien que Cornwell reconnaisse les défis liés à l'utilisation de ces outils, il reste déterminé à trouver des solutions pour protéger son art de l'exploitation par l'IA.