YouTube hat sein Likeness Detection Tool für die Unterhaltungsindustrie freigeschaltet. Das KI-gestützte System ermöglicht es ausgewählten Prominenten und Talentagenturen, unautorisierte Deepfakes automatisiert aufzuspüren und deren Löschung zu beantragen. Während das Tool bereits im Oktober 2025 angekündigt wurde, markiert der aktuelle Rollout im April 2026 eine entscheidende Phase im Kampf gegen synthetische Manipulation. Wer profitiert, wie die Technik funktioniert und welche regulatorischen Hürden bleiben, zeigt dieser Analysten-Check.
- YouTube schaltet sein neues Likeness Detection Tool für die Unterhaltungsindustrie frei, um Deepfakes automatisiert aufzuspüren.
- Das System gleicht biometrische Gesichtsdaten weltweit ab, wofür Prominente und Rechteinhaber nicht einmal einen eigenen YouTube-Kanal benötigen.
- Verschärfte Gesetze wie der EU AI Act und der US NO FAKES Act zwingen die Video-Plattform zur proaktiven Einführung dieser Technologie.
Das Likeness Detection Tool adaptiert das bewährte Prinzip von Content ID für biometrische Merkmale. Statt digitaler Fingerabdrücke von Audio-Dateien nutzt das System Gesichtsscans, um Übereinstimmungen in hochgeladenen Videos zu identifizieren. Betroffene können bei Funden direkt eine Löschung wegen Verletzung der Privatsphäre anfordern. Laut YouTubes Update vom 21. April 2026 haben nun führende Talentagenturen wie CAA und WME Zugriff auf das Dashboard, um ihre Klienten proaktiv zu schützen.
Ein signifikanter Vorteil: Prominente müssen keinen eigenen Kanal betreiben, um den Schutz zu nutzen. Das System hinterlegt die biometrischen Daten und gleicht diese global mit neuem Content ab. Ein breiterer Rollout für Privatpersonen ist für Ende 2026 avisiert, bleibt aber technisch und datenschutzrechtlich komplex.
Regulatorischer Druck: EU AI Act und NO FAKES Act
Deepfake-Technologie hat eine Qualität erreicht, die manuelle Prüfprozesse überfordert. YouTube reagiert mit diesem Tool auf die verschärfte Rechtslage. Seit August 2025 gelten die Transparenzregeln des EU AI Act für synthetische Medien. Ab dem 2. August 2026 greifen zudem die strikten Anforderungen für Hochrisiko-KI-Systeme, die Biometrie direkt betreffen. Parallel dazu unterstützt YouTube den US-amerikanischen NO FAKES Act, der ein bundesweites Recht am eigenen Abbild etablieren soll.
Statistiken unterstreichen die Notwendigkeit: YouTube gab im März 2026 an, dass die Zahl der durch das Tool entfernten Videos bisher zwar "sehr klein" sei, die Präventivwirkung durch automatisierte Scans jedoch als essenziell für die Plattform-Integrität eingestuft wird. Branchenexperten von Bitdefender betonen zudem, dass automatisierte Systeme allein Identitätsdiebstahl nicht stoppen – aktives Monitoring und manuelle Privacy-Beschwerden bleiben für die breite Masse der Nutzer vorerst alternativlos.
❓ Häufig gestellte Fragen
✅ 9 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen