El 12 de noviembre de 2024, el artista australiano Stephen Cornwell está utilizando herramientas avanzadas para salvaguardar su obra de arte del uso no autorizado por parte de la inteligencia artificial (IA). Sus creaciones digitales, a menudo con temas góticos y de horror, se alteran de tal manera que son imperceptibles para los humanos, pero confunden a los sistemas de IA.
Cornwell es parte de un creciente movimiento entre artistas que están tomando medidas proactivas contra las empresas de IA que utilizan material protegido por derechos de autor sin consentimiento. Estas empresas, incluidas OpenAI, Google y Meta, han sido criticadas por su falta de transparencia sobre las fuentes de datos utilizadas para entrenar sus modelos de IA.
Investigadores de la Universidad de Chicago han desarrollado herramientas como Glaze, que modifica los píxeles de una imagen para evitar que la IA reproduzca con precisión el estilo de un artista. Otra herramienta, Nightshade, interfiere en el entrenamiento de la IA al alterar la percepción de las imágenes por parte de la IA, envenenando así los datos utilizados para el entrenamiento.
A pesar de tener un aviso en su sitio web contra el scraping no autorizado, Cornwell ha comenzado a utilizar Glaze para proteger su estilo distintivo. Considera estas herramientas como esenciales para que los artistas recuperen el control sobre sus obras creativas.
Cornwell expresa su preocupación por las implicaciones de la IA en las artes, abogando por medidas legislativas en Australia similares a las de Europa que permiten a los individuos optar por no participar en el uso de sus datos para el entrenamiento de IA. Mencionó la campaña en curso de la Media, Entertainment and Arts Alliance (MEAA) por protecciones más fuertes para los artistas.
Aunque Cornwell reconoce los desafíos de utilizar estas herramientas, sigue comprometido a encontrar soluciones para proteger su oficio de la explotación por parte de la IA.