Ungefragte KI-Avatare von Prominenten in Werbekampagnen sind ein Kostentreiber erster Güte: Marken riskieren Unterlassungen, Schadensersatz, Abmahnkosten und zusätzlich Bußgelder nach DSGVO und – je nach Einstufung – Pflichten aus dem EU AI Act. Für dich als Marketing-Verantwortlichen heißt das: Jeder Frame ohne klare Einwilligung kann teuer werden.
- Der ungefragte Einsatz prominenter KI-Avatare birgt durch Verstöße gegen das Persönlichkeitsrecht, die DSGVO und den EU AI Act immense finanzielle Haftungsrisiken.
- Um teure Abmahnungen zu vermeiden, müssen Marketer im Workflow konsequent auf negative Prompts, stilgetriebene Beschreibungen und interne Reviews setzen.
- Eine lückenlose Dokumentation der Produktionsschritte sowie ausdrückliche, schriftliche Einwilligungen der dargestellten Personen sind für jede Kampagne unerlässlich.
Der Druck steigt, weil die Täuschungsqualität rasant zulegt. Branchenberichte zeigen, dass KI-Gesichter und -Stimmen inzwischen realistisch genug sind, um Publikum zu täuschen; der Originalbericht skizziert genau dieses Problem. Parallel warnt die Verbraucherzentrale vor Deepfake-Werbung mit Promi-Testimonials, die Vertrauen ausnutzt und zu Geld- und Datenschäden führt (Verbraucherzentrale).
Rechtlicher Rahmen: Wo aus Kreativität Haftung wird
Aus UX-Sicht sind KI-Avatare verführerisch: Du bekommst visuelle Varianten in Minuten. Juristisch kippt das, sobald die Kreation in Richtung erkennbarer Persönlichkeit driftet. Dann greift das allgemeine Persönlichkeitsrecht samt Recht am eigenen Bild/der eigenen Stimme (ähnlichkeitsbasierte Zuordnung reicht). Kommerzielle Nutzung ohne Einwilligung ist ein Risikofaktor – insbesondere in Paid Ads und Creator-Kooperationen.
Zwei belastbare Marker aus aktuellen Fällen und Analysen:
- Gerichtsnaher Präzedenzbezug: In der Auseinandersetzung rund um Clearview AI wird eine Trainingsbasis von über 50 Milliarden Internetfotos genannt – ein Maßstab, der die Reichweite von Identitätsnutzung ohne Einwilligung illustriert (ShortGenius-Analyse).
- Finanzielle Schäden im Umfeld von KI-Missbrauch: Behörden in Bayern melden 14.000 Anzeigen und 500 Mio. Euro Gesamtschaden im Kontext von Cybertrading und Fake-Werbung (Stand Oktober 2025; SAT.1 Bayern).
Für Marken heißt das: Auch wenn du kein Gesicht „eins zu eins“ kopierst, können Lookalikes rechtlich angreifbar sein – insbesondere wenn das Publikum eine Kooperation oder ein Testimonial annehmen könnte. In US-Kontexten kommen zusätzlich Publicity- und Endorsement-Regeln hinzu (Transparenzpflichten bei Testimonials; vgl. die Zusammenfassung bei ShortGenius).
DSGVO-Implikation: Gesichter und Stimmen sind biometrische Daten. Ohne geeignete Rechtsgrundlage (regelmäßig: ausdrückliche Einwilligung) und ohne Datenschutz-Folgenabschätzung (Art. 35) läufst du in ein Bußgeldrisiko. Automatisierte Entscheidungsfindung (Art. 22) und Drittlandtransfer-Fragen kommen on top.
Prompt-Schutz: So vermeidest du Lookalike-Fallen
Als UX-Designer denkst du in Guardrails. Für Bild-/Video-GenAI sind das Prompt- und Workflow-Barrieren, die dich von der „zu nah dran“-Zone fernhalten – ohne die kreative Bandbreite zu verlieren.
- Negative Prompts erzwingen: „no celebrity likeness, no identifiable person, avoid resemblance to real public figures, composite features only“. Variiere zusätzlich Gesichtsproportionen („asymmetric features, altered jawline, distinct nose bridge“).
- Stil statt Person beschreiben: Arbeite mit Licht, Objektiven, Ästhetiken („moody backlight, 35mm, soft diffusion, editorial color grade“) – aber niemals mit konkreten Namen.
- Latent Diversifizierung: Füge Zufallsparameter und Stil-Mixe ein („hybrid aesthetic, painterly texture overlay, synthetic skin microdetails“), um Wiedererkennungsmerkmale zu brechen.
- Identity-Blacklist im Team: Interne No-Go-Liste prominenter Gesichter/Stimmen, die das Prompting und die Review-Checkliste steuert.
- Disclosure-Tagging im Asset-Name: „synthetic_actor“ in Dateinamen/Metadaten, damit Producer und Rechtsteam sofort erkennen, dass kein echtes Testimonial vorliegt.
Konkreter Prompt-Vergleich (vereinfachtes Beispiel):
- Riskant: „ultra-realistic male spokesperson, charismatic tech billionaire vibe, distinctive oval face, sharp cheekbones, confident half-smile, press-conference lighting" – Ergebnis: hohe Verwechslungsgefahr mit realen Personen.
- Besser: „synthetic male actor, generic features, no resemblance to any real person, asymmetrical face, mixed ethnic traits, moody backlight, 35mm lens, soft diffusion, editorial grade“ – Ergebnis: geringere Nähe zu identifizierbaren Vorbildern.
Für Video gilt: Nutze Stil- und Bewegungsanweisungen statt Mimik von Vorbildern („subtle idle motion, neutral gaze, slow breathing“), vermeide typische Markenzeichen realer Personen (z. B. markante Pausen oder Gestikmuster).
Qualitäts-Check: Wann ein KI-Gesicht zu nah dran ist
Deine Review-Checkliste muss auf Wahrnehmbarkeit kalibriert sein: Entscheidend ist, was der durchschnittliche Betrachter annimmt – nicht deine interne Absicht. Drei Ebenen helfen im Alltag:
- Visuelle Heuristik: Prüfe Signature-Merkmale (Augenabstand, Kinnlinie, Haaransatz, Zahnlücke). Je mehr Übereinstimmungen, desto höher das Risiko der Zuordnung.
- Similarity-Scan mit Vier-Augen-Prinzip: Mindestens zwei Reviewer bewerten unabhängig die Nähe zu realen Personen (Empfehlung analog zu den Praxischecks in der ShortGenius-Analyse).
- Kontext-Faktor: In Verbindung mit Marken- und Produktbotschaften steigt die Wahrnehmung einer impliziten Empfehlung. Bei Paid-Platzierungen immer strenger prüfen.
Technisch solltest du zudem Produktionsartefakte im Blick behalten, die Glaubwürdigkeit ungewollt erhöhen – etwa extrem saubere Hauttexturen, perfekt symmetrische Gesichter oder unnatürlich stabile Augenfixierung. Reduziere Hyperrealismus bewusst, wenn Lookalike-Risiko besteht.
So What? Urheberrecht, EU AI Act und Creator-Workflows
Urheberrechtlich drohen Doppeltreffer: Erstens kann das Trainingsmaterial deines Tools geschützte Werke inkorporieren; zweitens kann dein Output identifizierende Merkmale realer Personen reproduzieren. Das EU-Regime verschärft die Anforderungen: Seit Februar 2025 gelten Verbote bestimmter Praktiken und KI-Literacy-Pflichten, seit August 2025 Governance-Regeln für GPAI. Ab August 2026 greifen die Kernpflichten für Hochrisiko-KI, biometrische Systeme und HR-KI – mit Bußgeldern bis 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes; bei Hochrisiko-Verstößen bis 15 Mio. Euro oder 3 %.
Für Creator-Teams heißt das: Du brauchst eine saubere Beweiskette (Prompt, Seed, Version, Review), klare Einwilligungen bei realen Personen und ein Eskalationsfenster für Rechtsprüfung vor Paid-Ausspielung. Ein „KI-Disclosure“-Hinweis ist kein Freifahrtschein – er reduziert Täuschungsrisiken, ersetzt aber keine Rechteklärung.
DSGVO-Praxis: Plane eine Datenschutz-Folgenabschätzung ein, wenn Gesichter/Stimmen verarbeitet werden, minimiere Daten, nutze EU-Hosting oder passende Garantien beim Drittlandtransfer und dokumentiere Entscheidungen. Für automatisierte Personalisierung prüfe Art. 22 mit dem Recht auf menschliches Eingreifen.
Fazit: Sicher spielen, visuell stark bleiben
Arbeite stil- und stimmungsgetrieben, nicht personengetrieben. Verankere Negative-Prompts und Reviewer-Checks im Standard-Workflow. Hol dir für jede identifizierbare Person eine explizite Einwilligung – schriftlich, zweckgebunden, widerrufsfest. Dokumentiere jede Produktionsstufe, bevor du in Paid gehst. So behältst du kreative Geschwindigkeit, ohne in ein finanzielles Minenfeld zu laufen.
❓ Häufig gestellte Fragen
📚 Quellen
- Complete AI Training: AI use of public figures' faces without consent violates ethics and law
- Verbraucherzentrale: Deepfakes mit Promis für Fake-Werbung
- ShortGenius: Rechtliche Herausforderungen mit KI-Schauspielern
- SAT.1 Bayern: 14.000 Anzeigen und 500 Mio. Euro Schaden (ZCB-Statistik)