Am 2. Januar 2025 gab Anthropic eine neue Vereinbarung bekannt, die darauf abzielt, angemessene Schutzmaßnahmen beim Training zukünftiger KI-Modelle zu gewährleisten, insbesondere in Bezug auf Urheberrechtsprobleme im Zusammenhang mit Songtexten. Dies folgt auf eine im Oktober 2023 eingereichte Klage von großen Musiklabels, darunter Universal Music Group und ABKCO, die Anthropic beschuldigten, Texte von über 500 Songs ohne Erlaubnis verwendet zu haben.
Die Klage behauptete, Anthropic habe wissentlich Informationen zur Urheberrechtsverwaltung verändert oder entfernt, während das KI-Modell trainiert wurde. Gemäß der neuen Vereinbarung verpflichten sich die beteiligten Parteien zur Zusammenarbeit in gutem Glauben, um ähnliche Vorfälle in Zukunft zu verhindern.
Als Reaktion auf die Vorwürfe verteidigte Anthropic seine Praktiken und erklärte, dass sein KI-Modell Claude so konzipiert sei, dass es keine Urheberrechte verletzt, und mit verschiedenen Prozessen ausgestattet ist, um solche Verstöße zu vermeiden. Das Unternehmen wies darauf hin, dass diese Vereinbarung mit Musikverlegern sein Engagement für die Einhaltung des Urheberrechts widerspiegelt.
Dieser Fall ist Teil eines breiteren Trends, bei dem KI-Technologien aufgrund von Urheberrechtsproblemen unter die Lupe genommen werden, wobei auch andere bemerkenswerte Fälle große Akteure wie Google und OpenAI betreffen.