Die EU hat sich auf ein Verbot sogenannter Nudifizierungs-Apps geeinigt — Tools, die per KI ohne Einwilligung sexuell explizite Bilder und Videos von echten Personen erstellen. Das Verbot ist Teil einer breiteren Überarbeitung des AI Act und soll laut EU-Kommission bis Dezember in der gesamten Union vollstreckbar sein. Den emotionalen Aufhänger lieferte diese Woche Italiens Premierministerin Giorgia Meloni: Sie veröffentlichte selbst ein KI-generiertes Bild von sich in Unterwäsche, das bereits in sozialen Medien kursierte — als explizite Warnung, dass diese Bedrohung niemanden ausspart.
- Die EU verbietet in einem beschleunigten Verfahren KI-Nudifizierungs-Apps, was bereits ab Dezember greifen soll.
- Italiens Premierministerin Giorgia Meloni unterstrich die Gefahr, indem sie ein eigenes Deepfake-Foto geteilt hat.
- Bis zum Dezember-Verbot können Betroffene gefälschte Inhalte über das aktive Löschungsrecht der DSGVO entfernen lassen.
Meloni teilte das manipulierte Bild auf Facebook und kommentierte es mit einer klaren Botschaft: Deepfakes seien ein gefährliches Werkzeug, das jeden täuschen, manipulieren und ins Visier nehmen könne. Ihr Appell an Nutzer lautete: erst verifizieren, dann glauben — erst denken, dann teilen. Der Schritt war kalkuliert. Indem eine Regierungschefin das Material selbst verbreitete, machte sie das Ausmaß des Problems für eine breite Öffentlichkeit greifbar, die sonst kaum Berührungspunkte mit nicht-konsensuellen Deepfakes hat. Bereits vor zwei Jahren hatte Meloni rechtlich gegen einen Mann aus Sardinien vorgegangen, dem vorgeworfen wurde, pornografische KI-Bilder von ihr erstellt und verbreitet zu haben. Der aktuelle Fall zeigt: Das Problem ist nicht gelöst, die Technologie ist zugänglicher geworden.
Der Deal in Brüssel zielt direkt auf die Anwendungsschicht: Apps und Tools, die gezielt dafür gebaut wurden, nicht-konsensuelle sexuell explizite Inhalte mittels KI zu erzeugen, werden EU-weit verboten. Die Maßnahme ist in die laufende Revision des AI Act eingebettet — eine Überarbeitung, die ursprünglich vor allem darauf ausgerichtet war, bürokratische Lasten für KI-Entwickler zu reduzieren. Dass Brüssel den Gesetzgebungsprozess bei diesem Thema deutlich beschleunigt hat, ist kein Zufall. Der politische Druck war zuletzt erheblich. Der Haken: Bis Dezember gilt die Regelung formal noch nicht überall. Wer jetzt betroffen ist, muss auf bestehende Rechtsrahmen zurückgreifen.
Das EU-Datenschutzrecht bietet bereits heute eine Handhabe. Da ein Bild einer Person als personenbezogenes Datum gilt, können Betroffene nach Art. 17 DSGVO das sogenannte Recht auf Löschung geltend machen — und Plattformen zwingen, gefälschte Inhalte zu entfernen. Das ist keine perfekte Lösung: Der Prozess ist zeitaufwendig, Plattformen reagieren unterschiedlich schnell, und grenzüberschreitende Fälle bleiben kompliziert. Aber es ist ein vorhandener Hebel, den viele Betroffene schlicht nicht kennen. Der EU AI Act wird ab August 2026 mit seinen Hauptpflichten für Hochrisiko-KI-Systeme in Kraft treten — das Nudifizierungs-Verbot kommt als gezielter Schritt noch früher.
Öffentliche Personen wie Meloni haben zumindest theoretisch Ressourcen: Anwälte, Pressestellen, direkte Kanäle zu Plattformen. Die meisten Opfer nicht-konsensueller Deepfakes sind Privatpersonen — häufig Frauen, die von Ex-Partnern oder Unbekannten ins Visier genommen werden. Auch Medienhäuser sind betroffen: Euronews berichtet, dass eigene Journalisten wiederholt Ziel von KI-generierten Fälschungen wurden, mit manipulierten Stimmen und gestohlenen Bildern — teils durch koordinierte Desinformationskampagnen. Das unterstreicht, dass das Problem weit über den Einzelfall hinausgeht und systematischen Charakter hat. Das Tempo, mit dem Brüssel diesmal handelt, ist gemessen an den üblichen EU-Gesetzgebungszyklen tatsächlich ungewöhnlich — und ein Signal, dass die politische Schmerzgrenze erreicht ist.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 8 mehrfach verifiziert (europarl.europa.eu)
📚 Quellen