Die offizielle Ankündigung von Anthropic's neuem Frontier-Modell Claude Mythos am 7. April 2026 markiert einen Wendepunkt in der automatisierten Software-Sicherheit. Während bisherige Modelle wie Claude Opus 4.7 primär beim Patching glänzten, demonstriert die Mythos-Vorschau eine besorgniserregende Autonomie bei der Entdeckung und aktiven Ausnutzung kritischer Schwachstellen in globalen Infrastrukturen.
- Claude Mythos demonstriert beunruhigende Autonomie bei der Erstellung von Exploits und löst 100 % der Cybench-Herausforderungen.
- Das KI-Modell entdeckte einen 27 Jahre alten OpenBSD-Fehler und umging völlig selbstständig komplexe Browser-Sandboxes.
- Als Gegenmaßnahme startete Anthropic das „Project Glasswing“, um kritische Codebasen vor KI-gestützten Angriffen zu verteidigen.
Mythos vs. Legacy: Die neue Skalierbarkeit von Exploits
Die Leistungsdaten von Claude Mythos stellen bisherige Benchmarks in den Schatten. In internen Tests erzielte das Modell bei über 7.000 Einstiegspunkten des OSS-Fuzz-Corpus zehnmal einen vollständigen Control-Flow-Hijack (Tier 5). Zum Vergleich: Vorgängermodelle wie Opus 4.6 erreichten in denselben Szenarien lediglich einen einzigen Absturz auf Tier 3. Diese enorme Steigerung der AI Coding Assistant Fähigkeiten zeigt, dass die Grenze zwischen hilfreicher Entwicklungshilfe und gefährlicher Angriffsautonomie verschwimmt.
Besonders kritisch ist die Fähigkeit des Modells, komplexe Exploit-Ketten zu bilden. Mythos entwickelte autonom einen Browser-Exploit, der vier Schwachstellen kombinierte, inklusive eines JIT-Heap-Sprays, um sowohl Renderer- als auch OS-Sandboxes zu umgehen. Diese Art der automatisierte Code-Generierung erfordert von Sicherheitsteams eine radikale Neuausrichtung ihrer Verteidigungsstrategien.
Project Glasswing: Defensive Antwort auf KI-Angriffe
Als Reaktion auf diese Ergebnisse hat Anthropic das Programm "Project Glasswing" ins Leben gerufen. Ziel ist es, die Fähigkeiten von Claude Mythos gezielt für die Verteidigung einzusetzen, bevor ähnliche Modelle für böswillige Akteure frei verfügbar werden. Die Dringlichkeit ist hoch: In Experimenten konnten Anthropic-Ingenieure ohne formale Sicherheitsausbildung das Modell nutzen, um über Nacht funktionierende Remote-Code-Execution-Exploits zu generieren.
Die Integration von Claude-Modellen in den Entwicklungsprozess muss daher zwingend von neuen Sicherheits-Frameworks begleitet werden. Da herkömmliche Fuzzing-Tools und statische Analysen primär für menschliche Fehlermuster optimiert sind, entstehen durch KI-generierten Code völlig neue Angriffsvektoren, die eine kontinuierliche, KI-gestützte Überwachung erfordern.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 1 Primärquelle (spectrum.ieee.org)
📚 Quellen