PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Iran-Konflikt: Teheran setzt KI-Deepfakes als Desinformationswaffe ein

Iran setzt im laufenden Konflikt KI-generierte Deepfakes ein, um Militärsiege zu fälschen. Die New York Times identifizierte über 110 gefälschte Inhalte in zwei Wochen.

Iran-Konflikt: Teheran setzt KI-Deepfakes als Desinformationswaffe ein
📷 KI-generiert mit Flux 2 Pro

Im Angesicht seiner militärischen Unterlegenheit gegen die USA verlagert der Iran seinen Kampf in den Informationsraum, indem er gezielt KI-generierte Deepfakes einsetzt, um im Inland und bei regionalen Verbündeten eine Siegeserzählung zu etablieren. Dies belegen Analysen der Konrad-Adenauer-Stiftung und Berichte von Fox News. Die New York Times identifizierte in den ersten Kriegswochen über 110 gefälschte Bilder und Videos mit Millionen Aufrufen. Zudem meldete das israelische Analyseunternehmen Cyabra Zehntausende koordinierter Fake-Accounts auf TikTok und X, die pro-iranische Narrative verbreiten und so die Manipulation des Informationsraums verstärken.

⚡ TL;DR
  • Der Iran setzt im aktuellen Konflikt gezielt KI-generierte Deepfakes ein, um militärische Erfolge vorzutäuschen und die Stimmung im Informationsraum zu manipulieren.
  • Neben visuellen Fälschungen von US-Kriegsschiffen weitet das Land seine hybride Kriegsführung durch KI-gestützte Cyberangriffe und massive Fake-Account-Netzwerke aus.
  • Da Regulierungen wie der EU AI Act staatliche Akteure kaum erfassen, wird die schnelle Identifikation von KI-Fälschungen für europäische Staaten zur überlebenswichtigen Aufgabe.

Der Iran nutzt KI-gestützte Video- und Audiogeneratoren, um überzeugende Fälschungen von angeblich zerstörten US-Kriegsschiffen oder gefälschten Aussagen amerikanischer Militärführer zu produzieren. Parallel dazu eskaliert der Iran seine Cyber-Operationen gegen US-Technologiekonzerne mittels Pseudo-Ransomware-Kampagnen, bei denen KI-Tools für Phishing und Malware-Entwicklung eingesetzt werden. Das übergeordnete Ziel ist es, die Entschlossenheit der amerikanischen Öffentlichkeit zu untergraben und internationale Verbündete zu verunsichern, anstatt das Pentagon direkt zu beeinflussen. Es ist jedoch zu beachten, dass auch die USA und Israel KI intensiv nutzen, beispielsweise zur Zielplanung (Systeme wie "Gospel" oder "Lavender"), was die allgegenwärtige Rolle von generativer KI in modernen Konflikten auf beiden Seiten des Schlachtfelds unterstreicht.

Für europäische Beobachter und Unternehmen stellt dieser Konflikt einen entscheidenden Test für die Widerstandsfähigkeit demokratischer Informationsinfrastrukturen dar. Während der EU AI Act Transparenzpflichten für Anbieter von General Purpose AI (GPAI)-Modellen vorsieht, bleiben staatliche Akteure im Bereich der nationalen Sicherheit weitgehend außerhalb dieser Regulierung. Die Fähigkeit, KI-generierte Inhalte schnell zu erkennen und zu kennzeichnen, wird somit zu einer kritischen sicherheitspolitischen Aufgabe und einer wesentlichen Komponente für die Resilienz unserer Informationsgesellschaft.

❓ Häufig gestellte Fragen

Wie nutzt der Iran Künstliche Intelligenz im aktuellen Konflikt?
Der Iran verwendet KI zur Erstellung von täuschend echten Bildern und Videos, die beispielsweise zerstörte US-Kriegsschiffe oder fiktive Aussagen von Militärs zeigen. Begleitet wird dies von tausenden Fake-Accounts in sozialen Medien sowie KI-gestützten Cyberangriffen wie Phishing-Kampagnen.
Welche strategischen Ziele verknüpft Teheran mit den Deepfakes?
Aufgrund der eigenen militärischen Unterlegenheit verlagert der Iran den Krieg in den Informationsraum. Die manipulierten Inhalte sollen die westliche Öffentlichkeit demotivieren, internationale Verbündete verunsichern und gleichzeitig eine pro-iranische Siegeserzählung etablieren.
Bietet der EU AI Act Schutz vor solchen staatlichen Desinformationskampagnen?
Nein, das Gesetz greift bei diesen staatlichen Kampagnen nicht ausreichend. Da Anwendungen im Bereich der nationalen Sicherheit und Verteidigung von den Transparenzpflichten ausgenommen sind, wird die zügige Erkennung von KI-Fälschungen zur eigenständigen sicherheitspolitischen Aufgabe.
Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude 4.6.

📬 KI-News direkt ins Postfach