Taylor Swift unternimmt neue Schritte, um ihre Stimme und ihr Abbild vor dem Missbrauch durch künstliche Intelligenz (KI) zu schützen. Die Pop-Ikone hat Markenanmeldungen für zwei Audio-Clips ihrer Stimme eingereicht. In einem sagt sie zum Beispiel: „Hey, it’s Taylor Swift, and you can listen to my new album, ‘The Life of a Showgirl,’ on demand on Amazon Music Unlimited.“ Ein weiterer Clip enthält eine ähnliche Botschaft in tieferer Stimmlage.
- Taylor Swift hat erstmals Markenanmeldungen für Audioclips und ein Bühnenfoto eingereicht, um Stimme und Abbild vor KI-Missbrauch zu schützen.
- Dieser neue juristische Ansatz nutzt das Markenrecht statt des Urheberrechts, um auch verwechslungsähnliche KI-Imitationen anfechten zu können.
- Die Aktion ist Teil eines wachsenden Branchentrends, bei dem sich Prominente zunehmend juristisch gegen KI-Tools zur Inhaltserzeugung wehren.
Zusätzlich zu den Audio-Clips hat Swift eine dritte Marke angemeldet, um ein Bild von sich auf der Bühne zu schützen. Dieses zeigt sie in einem ihrer charakteristischen glitzernden Bodysuits, eine pinke Gitarre spielend.
Swift war in den letzten Jahren wiederholt Ziel von Deepfakes. Dazu gehören gefälschte Werbeclips für Kochgeschirr, sexuell anzügliche Deepfakes und manipulierte Fotos, die politische Unterstützung suggerierten.
Dieses Vorgehen ist Teil eines wachsenden Trends unter Prominenten, sich gegen die zunehmend ausgefeilten KI-Tools zur Inhaltserzeugung zu wehren. Matthew McConaughey war im Januar der erste prominente Künstler, der eine Reihe von Marken für Bilder, Videos und Audio von sich selbst anmeldete, um sein Abbild zu schützen. Experten sehen solche individuellen Marken als mögliche Grundlage für Klagen, falls Prominente ohne ausdrückliche Erlaubnis repliziert werden.
Traditionell wurden Klangmarken für unverwechselbare Audio-Elemente wie das Löwengebrüll von MGM oder die Glockenspiele von NBC verwendet. Der Markenanwalt Josh Gerben, der Swifts Anmeldungen als Erster berichtete, merkt an, dass die Anmeldung einer gesprochenen Prominentenstimme ein neuer, noch nicht gerichtlich erprobter Ansatz ist. Gerben erklärt, dass Sänger sich bisher auf das Urheberrecht verließen, doch KI-Technologien ermöglichen die Generierung neuer Inhalte, die eine Künstlerstimme nachahmen, ohne bestehende Aufnahmen zu kopieren. Marken könnten diese Lücke schließen. Durch die Registrierung spezifischer Phrasen in ihrer Stimme könnte Swift nicht nur identische Reproduktionen, sondern auch „verwechslungsähnliche“ Imitationen anfechten, ein wichtiger Standard im Markenrecht.
Obwohl Swift Hunderte von Marken angemeldet hat, um ihren Namen, Liedtexte und Merchandise zu schützen, scheint dies ihr erster Versuch zu sein, Klangmarken zu sichern.
Die Sorge vor KI-Missbrauch wächst. Scarlett Johansson forderte 2023 eine KI-App auf, ihr Abbild nicht zu verwenden, und kritisierte OpenAI 2024 für die Nutzung einer „unheimlich ähnlichen“ Stimme für ihren GPT-4o-Chatbot, nachdem sie eine Anfrage zur Stimmbereitstellung abgelehnt hatte. Tom Hanks und Bryan Cranston äußerten ähnliche Bedenken bezüglich der Nutzung ihrer Abbilder ohne Erlaubnis.
Im Januar unterstützten über 700 Kreative eine Kampagne namens „Stealing Isn’t Innovation“, die Tech-Unternehmen auffordert, ihre generativen KI-Tools nicht ohne ausdrückliche Genehmigung der Urheber auf urheberrechtlich geschützten Werken zu trainieren.
Einige Unternehmen reagieren auf diese Bedenken. YouTube hat kürzlich eine Vereinbarung mit Talentagenturen getroffen, um Prominenten den Zugang zu seinem Deepfake-Erkennungstool zu ermöglichen, womit sie unerlaubte Abbilder leichter von der Plattform entfernen lassen können.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 1 Primärquelle (nbcnews.com)
📚 Quellen