El 2 de enero de 2025, Anthropic anunció un nuevo acuerdo destinado a garantizar protecciones adecuadas al entrenar futuros modelos de IA, específicamente en relación con problemas de derechos de autor relacionados con letras de canciones. Esto se produce tras una acción legal iniciada en octubre de 2023 por importantes sellos discográficos, incluidos Universal Music Group y ABKCO, que acusaron a Anthropic de utilizar letras de más de 500 canciones sin permiso.
La demanda afirmaba que Anthropic alteró o eliminó intencionadamente información sobre la gestión de derechos de autor al entrenar su modelo de IA. Según el nuevo acuerdo, las partes involucradas se comprometen a colaborar de buena fe para prevenir incidentes similares en el futuro.
En respuesta a las acusaciones, Anthropic defendió sus prácticas, afirmando que su modelo de IA, Claude, está diseñado para no infringir derechos de autor y cuenta con varios procesos para evitar tales violaciones. La empresa indicó que este acuerdo con los editores de música refleja su compromiso con el cumplimiento de los derechos de autor.
Este caso es parte de una tendencia más amplia en la que las tecnologías de IA enfrentan un escrutinio sobre problemas de derechos de autor, con otros casos notables que involucran a actores importantes como Google y OpenAI.