Cloaking ist kein Randphänomen mehr — es ist die zentrale Infrastrukturschicht moderner Cyberkriminalität. Das ist die Kernthese einer vier Monate dauernden Analyse der Sicherheitsfirmen Infoblox und Confiant, die ein Netzwerk von rund 15.500 aktiv genutzten Domains identifiziert hat. Diese Domains liefern getarnte KI-Anlagebetrügereien aus — nicht über selbst gebaute Systeme, sondern über kommerzielle Tracking-Software, die eigentlich für legitimes Performance-Marketing entwickelt wurde. Der Befund ist so klar wie unbequem: Die Werkzeuge, die Advertiser täglich nutzen, um Zielgruppen zu segmentieren und Kampagnen zu optimieren, ermöglichen es Kriminellen, ihre Operationen mit minimaler eigener Infrastruktur auf industrielle Skala zu bringen. Das Modell funktioniert, weil es unsichtbar bleibt — Sicherheitsscanner sehen harmlose Landingpages, während die eigentlichen Opfer in betrügerische Handelsoberflächen geleitet werden. Wer glaubt, klassische Endpoint-Security oder Firewall-Regeln würden hier greifen, unterschätzt die Architektur des Problems fundamental.
- Cyberkriminelle missbrauchen kommerzielle Tracking-Technologien und Cloaking, um Anlagebetrug in industriellem Maßstab vor gängigen Sicherheitsscannern zu verstecken.
- Generative KI und Deepfakes werden gezielt eingesetzt, um überzeugende, betrügerische Handelsplattformen effizient in zahlreiche Sprachen und Regionen zu skalieren.
- Da herkömmliche IT-Sicherheit hier strukturell versagt, müssen Unternehmen auf proaktives DNS-Filtering und eine verbesserte Sensibilisierung ihrer Mitarbeiter setzen.
Wie Cloaking vom Hilfsmittel zur Grundlage wurde
Traffic Distribution Systems — kurz TDS — sind das technische Herzstück dieser Operationen. Sie filtern eingehende Besucher anhand von Attributen wie Standort, Gerätetyp und Referral-Quelle, bevor sie entscheiden, welchen Inhalt ein Nutzer zu sehen bekommt. Für legitime Werbetreibende ist das normale Praxis: Unterschiedliche Creatives für mobile und Desktop-Nutzer, länderspezifische Angebote, A/B-Tests nach Herkunftskanal. Für Kriminelle ist dieselbe Logik ein Schutzschild.
Die Infoblox/Confiant-Analyse beschreibt Cloaking ausdrücklich als „a foundational block of modern cybercrime" — nicht als Taktik am Rande, sondern als Fundament. Sicherheitsscanner, die Domains auf schädliche Inhalte prüfen, gehören nach Standort und ASN zu den Filterregeln, die ein gut konfiguriertes TDS automatisch ausschließt. Das bedeutet: Eine Domain kann monatelang durch Standard-Checks laufen, ohne je als gefährlich eingestuft zu werden — weil sie gegenüber Scannern schlicht als harmlose Informationsseite erscheint.
Ein weiterer Effekt, der in der Analyse hervorgehoben wird, ist die Schutzfunktion gegenüber konkurrierenden Gruppen. Wer eine laufende Kampagne hijacken will, sieht ebenfalls nur die saubere Fassade — echte Infra bleibt verborgen. Cloaking schützt also nicht nur vor Behörden und Forschern, sondern auch vor dem internen Wettbewerb der Cyberkriminalität. Das macht es nicht nur nützlich, sondern für professionell operierende Gruppen nahezu unverzichtbar.
Die 15.500 Domains leiteten Traffic aus vier verschiedenen Quellen: kompromittierte Websites, Spam-Kampagnen, Social-Media-Kanäle und bezahlte Online-Werbung. Gerade der letzte Kanal ist bemerkenswert — wer über legitime Werbenetzwerke Traffic kauft, verschleiert die Herkunft seiner Reichweite hinter etablierten Plattformen und deren Reputation.
KI als Köder: Was die Domains tatsächlich bewerben
Der thematische Schwerpunkt der beobachteten Kampagnen ist eindeutig: Anlagebetrug, verkleidet im Gewand von KI-gestützten Handelsplattformen. Phrasen wie „Smart AI Trading Technology" oder „Intelligent Trading Solutions" tauchen auf Hunderten von Domains auf — immer kombiniert mit Versprechen konsistenter und ungewöhnlich hoher Renditen. Das Muster ist klassisch, die Verpackung ist neu.
Deepfake-Bilder und manipulierte Medieninhalte verstärken die wahrgenommene Glaubwürdigkeit. Behörden in den USA haben konkrete Fälle dokumentiert: Der Attorney General von Maryland warnt explizit vor Deepfake-Videos auf Meta-Plattformen, in denen bekannte Finanzpersönlichkeiten für betrügerische Plattformen werben. Die Masche funktioniert, weil KI-generierte Avatare und geklonte Stimmen inzwischen eine Qualität erreicht haben, die für Laien kaum von echten Aufnahmen zu unterscheiden ist.
Was die Skalierung dieser Kampagnen ermöglicht, ist jedoch nicht primär die Deepfake-Technologie selbst — es ist der Einsatz generativer KI zur Massenproduktion von Kampagnenmaterial. Laut der Analyse werden Schlagzeilen, Werbetexte und visuelle Assets programmatisch erstellt und mit minimalen Variationen über Dutzende Domains hinweg ausgerollt. Das Ergebnis ist eine Content-Pipeline, die schnell in neue Sprachen und Regionen expandieren kann, ohne dass erheblicher manueller Aufwand entsteht.
Für DACH-Nutzer ist das keine abstrakte amerikanische Bedrohung. Deutschsprachige Varianten solcher Kampagnen sind technisch trivial zu erzeugen — ein Prompt, ein Übersetzungsschritt, eine neue Domain. Die California DFPI warnt explizit davor, dass KI-Investmentbetrug gezielt verschiedene Märkte und Sprachen adressiert. Die Barriere für regionale Expansion ist auf technischer Seite nahezu verschwunden.
Warum Standardabwehr hier strukturell versagt
Das eigentlich beunruhigende Ergebnis der Analyse liegt nicht in der Größe des Netzwerks — 15.500 Domains klingen dramatisch, sind aber für sich genommen eine Zahl. Das eigentlich Beunruhigende ist die Erkenntnis, dass die übliche Verteidigungslogik bei dieser Angriffskategorie systematisch zu kurz greift.
Endpoint-Schutzsysteme scheitern, weil cloaked Content unter Standardbedingungen nie sichtbar wird. Ein Antivirus-Scanner, der eine Domain crawlt, bekommt eine saubere Seite präsentiert — die gefährliche Version existiert für ihn schlicht nicht. Firewall-Regeln versagen, weil der Traffic durch legitime Werbe- und Webkanäle geleitet wird. Wer Anfragen an bekannte Werbenetzwerke blockieren würde, würde das halbe Web sperren.
Malware-Entfernung bleibt reaktiv: Der eigentliche Schaden entsteht erst, nachdem das Opfer durch die Delivery-Kette geführt wurde. Bis eine Meldung bei einem Tracker-Betreiber oder Domain-Registrar landet und bearbeitet wird, haben die Betreiber längst neue Domains registriert und dieselbe Infrastruktur mit minimalen Änderungen reaktiviert. Die Analyse stellt fest, dass die Aktivität trotz laufender Meldungen und Account-Sperrungen kaum Anzeichen einer Verlangsamung zeigt.
Im Kontext des EU AI Act ist dieser Befund relevant: Ab August 2026 greifen die Hochrisiko-Bestimmungen, und KI-gestützte Manipulationssysteme — also auch Deepfake-basierte Scam-Infrastruktur — fallen in Regelungsbereiche, die Transparenz und technische Schutzmaßnahmen fordern. Die Durchsetzung gegenüber kriminellen Akteuren, die bewusst außerhalb des Rechtsrahmens operieren, bleibt jedoch eine offene Frage. Der AI Act schützt vor nachlässigen Unternehmen — nicht vor organisierten Kriminellen, die ihre Infrastruktur täglich rotieren.
Was dagegen spricht: Die Grenzen des Befunds
Die Analyse von Infoblox und Confiant liefert einen wichtigen Einblick, aber sie hat blinde Flecken, die eine nüchterne Einordnung erfordern. Erstens bleibt die geografische Verteilung der 15.500 Domains unklar — ob diese Kampagnen primär anglophone Märkte treffen oder bereits systematisch europäische Nutzer adressieren, geht aus dem publizierten Material nicht hervor.
Zweitens ist die Zahl 15.500 eine Momentaufnahme eines vier Monate dauernden Beobachtungsfensters. Wie viele dieser Domains gleichzeitig aktiv waren, wie schnell die Rotation tatsächlich stattfindet und wie viele Nutzer tatsächlich Schaden erlitten haben, bleibt offen. Die Analyse beschreibt Persistenz und Skalierung — konkrete Opferzahlen für dieses spezifische Netzwerk nennt sie nicht.
Drittens ist die Nutzung kommerzieller Tracking-Software für kriminelle Zwecke kein neues Phänomen. Was die Analyse neu einordnet, ist der Grad der Integration — aber ob Cloaking wirklich zur primären Infrastrukturschicht geworden ist oder ob das eine Interpretation der beobachteten Stichprobe ist, lässt sich von außen schwer bewerten. Sicherheitsforschung hat ein inhärentes Interesse daran, die Tragweite eigener Befunde zu betonen. Das bedeutet nicht, dass der Befund falsch ist — aber Leser sollten die institutionelle Perspektive der Autoren einkalkulieren.
So What? Was DACH-Entscheider jetzt konkret tun sollten
Für Unternehmen und Einzelpersonen im DACH-Raum hat die Analyse mehrere direkt handlungsrelevante Implikationen. Die erste betrifft interne Aufklärung: KI-Anlagebetrügereien sind nicht mehr an holprigem Deutsch oder offensichtlich manipulierten Bildern erkennbar. Generative KI produziert fehlerfreien Text in jeder Sprache, und Deepfake-Qualität hat sich in kurzer Zeit dramatisch verbessert. Mitarbeiter, die im Unternehmensumfeld mit Finanzthemen, Handelssoftware oder Investment-Plattformen zu tun haben, brauchen aktualisierte Sensibilisierung — nicht den Hinweis, auf Rechtschreibfehler zu achten.
Die zweite Implikation betrifft die Werbe- und Mediastrategie von Unternehmen selbst. Wer programmatische Werbung schaltet, teilt sich Netzwerke und Infrastruktur mit Akteuren, deren Qualität und Integrität schwer zu prüfen ist. Brand-Safety-Maßnahmen sollten regelmäßig aktualisiert werden, nicht nur mit Blick auf Markenwerte, sondern auch auf die technische Nachbarschaft der eigenen Anzeigen.
Drittens — und das ist der strukturelle Punkt — verlagert sich der Schutz vor diesen Angriffen weg von reaktiver Malware-Erkennung hin zu proaktiver DNS-Ebene und Traffic-Analyse. Wer auf DNS-Filtering setzt, kann die Kommunikation mit bekannten Scam-Domains blockieren, bevor der Nutzer überhaupt eine Seite lädt. Das ist kein Allheilmittel, aber es ist der Layer, auf dem präventive Abwehr heute noch am ehesten greift. Infoblox selbst — als DNS-Security-Anbieter — hat hier natürlich ein Produktinteresse, das man einpreisen sollte. Trotzdem bleibt die technische Logik valide.
Für DSGVO-verantwortliche Teams gilt zudem: Wenn Mitarbeiter auf cloaked Seiten persönliche oder Zahlungsdaten eingeben, entsteht ein Datenschutzvorfall im Sinne der DSGVO, der meldepflichtig sein kann. Präventive Aufklärung ist hier günstiger als reaktive Meldekaskaden.
Fazit: Das Modell ist profitabel, weil die Abwehr strukturell reaktiv bleibt
Die Analyse zeigt ein System, das nicht trotz seiner Komplexität funktioniert, sondern wegen seiner Einfachheit auf der Angreiferseite. Kommerzielle Tools übernehmen Filterung, Routing und Kampagnenmanagement. Generative KI liefert den Content. Domains werden rotiert. Der eigentliche operative Aufwand für die Betreiber ist minimal — und das ist der Kern des Problems.
Solange kommerzielle Tracking-Plattformen keine ernsthaften Missbrauchs-Erkennungssysteme einsetzen und solange Domain-Registrierung ohne substanzielle Verifizierung möglich ist, wird dieses Modell skalierbar und profitabel bleiben. Behörden-Warnungen helfen den Menschen, die sie lesen — aber die Zielgruppe dieser Kampagnen ist gerade nicht die technikaffine Schicht, die Security-Blogs konsumiert.
Die wahrscheinlichste Prognose: Wenn sich nichts Strukturelles an der Registrar- oder Tracker-Ebene ändert, wird die Zahl aktiver Scam-Domains in den nächsten zwölf Monaten weiter steigen — nicht sinken. Wer das Gegenteil erwartet, sollte erklären, welcher Anreiz für die Betreiber verschwunden sein soll.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 8 mehrfach verifiziert
📚 Quellen