PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Anthropic behebt Claude Code-Probleme und verschärft Qualitätskontrollen

Nutzerbeschwerden über nachlassende Qualität von Claude Code veranlassten Anthropic zur Behebung von drei Fehlern und zur Ankündigung strengerer Kontrollen.

Anthropic behebt Claude Code-Probleme und verschärft Qualitätskontrollen
📷 KI-generiert mit Flux 2 Pro

Anthropic hat auf Nutzerbeschwerden reagiert, die eine sinkende Qualität ihres Kodierungstools Claude Code meldeten. Das Unternehmen identifizierte und behob drei separate Fehlerursachen, die zu einer spürbaren Verschlechterung der Leistung führten. Die Probleme betrafen Claude Code, das Claude Agent SDK und Claude Cowork, nicht aber die API selbst. Alle Fehler wurden nach Angaben von Anthropic bis zum 20. April mit Version 2.1.116 behoben.

⚡ TL;DR
  • Anthropic hat drei spezifische Fehler in Claude Code und verwandten Tools behoben, um durch Nutzer gemeldete Leistungseinbußen zu stoppen.
  • Die Qualitätsmängel resultierten aus einer reduzierten Reasoning-Stufe, einem fehlerhaften Caching-Update und einer neuen Textlängen-Einschränkung.
  • Als Reaktion verschärft das Unternehmen nun die Qualitätskontrollen, führt gestaffelte Rollouts ein und entschädigt alle Abonnenten.

Ein Hauptgrund für die Qualitätseinbußen war die Reduzierung des standardmäßigen „Reasoning Effort“ von „high“ auf „medium“ am 4. März. Dies sollte Latenzzeiten verringern, führte jedoch zu einer wahrgenommenen Intelligenzminderung, was am 7. April rückgängig gemacht wurde.

Ein weiterer Fehler betraf eine Caching-Optimierung, die am 26. März eingeführt wurde. Ein Programmierfehler führte dazu, dass die Reasoning-Historie bei jeder Interaktion gelöscht wurde, anstatt nur nach einer Stunde Inaktivität. Dies führte zu Kontextverlust, Wiederholungen und unerwartet hohem Verbrauch von Nutzungslimits. Der Fehler wurde am 10. April behoben.

Zusätzlich sorgte eine System-Prompt-Anweisung vom 16. April, die die Textlänge begrenzen sollte, für einen Qualitätsrückgang von drei Prozent. Diese Änderung wurde am 20. April zurückgenommen.

Anthropic kündigte an, interne Qualitätssicherungsmaßnahmen zu verschärfen. Dazu gehören die Nutzung der öffentlichen Version von Claude Code durch mehr Mitarbeiter, die Einführung umfassender Evaluierungssuiten für System-Prompt-Änderungen sowie gestaffelte Rollouts für potenziell kritische Updates. Als Kompensation wurden die Nutzungslimits für alle Abonnenten zurückgesetzt. Das Unternehmen hat zudem den X-Account @ClaudeDevs eingerichtet, um Produktentscheidungen transparenter zu kommunizieren.

Die Vorfälle reihen sich in eine Reihe ähnlicher Berichte aus der KI-Branche ein, bei denen wahrgenommene Qualitätsrückgänge oft auf Änderungen in der Tooling-Schicht oder Infrastruktur zurückzuführen sind, anstatt auf die Modelle selbst. Der branchenweite Rechenkapazitätsengpass und steigende GPU-Preise üben Druck auf Anbieter aus, was sich auch in Preismodellen und Serviceverfügbarkeit widerspiegelt. Anthropic hatte kürzlich eine API-Verfügbarkeit von 98,95 Prozent, was unter dem Branchenstandard von 99,99 Prozent liegt.

❓ Häufig gestellte Fragen

Warum haben Nutzer eine Qualitätsverschlechterung bei Claude Code bemerkt?
Die Leistungseinbußen waren auf drei separate Fehler zurückzuführen, darunter eine Herabstufung des standardmäßigen Reasoning-Levels. Zudem verursachte ein fehlerhaftes Caching-Update Kontextverluste, während eine neue Prompt-Anweisung die Qualität weiter minderte.
Waren die grundlegenden KI-Modelle von Anthropic auch von den Problemen betroffen?
Nein, die identifizierten Probleme betrafen ausschließlich die Tooling-Schicht wie Claude Code, das Claude Agent SDK und Claude Cowork. Die eigentliche API und die zugrundeliegenden Modelle waren von diesen Beeinträchtigungen nicht betroffen.
Wie steuert Anthropic gegen, um ähnliche Vorfälle künftig zu verhindern?
Anthropic hat die Fehler behoben und setzt nun auf strengere interne Tests sowie gestaffelte Rollouts für kritische Updates. Als Entschädigung für die Unannehmlichkeiten wurden zudem die Nutzungslimits aller betroffenen Abonnenten zurückgesetzt.

✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.

ℹ️ Wie wir prüfen →

📚 Quellen

Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach