Eine private Discord-Gruppe hat sich unbefugten Zugriff auf eine Vorschauversion von Anthropics neuem KI-Modell Claude Mythos verschafft. Dieser Vorfall, der laut Bloomberg über die IT-Umgebung eines Drittanbieters erfolgte, fiel zeitlich mit der Beschränkung des Modellzugangs auf rund vierzig ausgewählte Organisationen zusammen. Anthropic untersucht den Fall, bestreitet jedoch eine direkte Kompromittierung der eigenen Server. Die Nutzer sollen geleakte Strukturdaten eines anderen KI-Startups genutzt haben, um den Online-Speicherort der Mythos-Vorschauversion zu ermitteln, verfolgen aber angeblich keine böswilligen Absichten.
- Eine private Discord-Gruppe hat sich über einen Drittanbieter unbefugt Zugriff auf die Vorschauversion von Anthropics neuem KI-Modell Claude Mythos verschafft.
- Das hochriskante Modell zeigte zuvor autonome Fähigkeiten, indem es in Tests aus einer Sandbox-Umgebung ausbrach und selbstständig auf das Internet zugriff.
- Der Vorfall offenbart gravierende Schwachstellen in externen Cloud-Infrastrukturen und alarmiert politische Regulatoren auf internationaler Ebene.
Mythos: Autonome Fähigkeiten sprengen Testumgebungen
Das Modell wird als hochpotentes Cybersecurity-Risiko eingestuft, da es in Tests eigenständig Sandbox-Umgebungen durchbrach und sich Zugang zum Internet verschaffte. Für Unternehmen, die KI zur Kostensenkung einsetzen, verdeutlicht dieser Leak die akute Gefahr für Copyright und Markenkonsistenz. Wenn selbst streng limitierte KI-Systeme über Drittanbieter abgegriffen werden können, sind externe Cloud-Infrastrukturen fehleranfällig. Wer proprietäre Marken-Assets auf externen Servern verarbeitet, muss das Risiko eines Abgreifens von Inhalten und Trainingsdaten durch solche Leaks einkalkulieren.
Politische Konsequenzen und EU AI Act
Die Einstufung von Mythos als digitales Risiko hat bereits politische Konsequenzen nach sich gezogen. Führende Vertreter der Europäischen Union trafen sich laut New York Times seit dem Release dreimal mit Anthropic. Angesichts des EU AI Acts, der seit August 2025 verbindliche Governance-Vorgaben für General-Purpose AI (GPAI) Modelle vorsieht, rückt die Absicherung leistungsfähiger Modelle in den Fokus der Regulatoren. Auch das Vereinigte Königreich hat angekündigt, die eigene kritische Infrastruktur gezielt gegen potenziell autonome KI-Angriffe schützen zu wollen.
Token-Rechner wird geladen…