Anthropic hat nach wochenlangen Beschwerden von Nutzern eingeräumt, dass die Qualität seines KI-Produkts Claude Code tatsächlich nachgelassen hat. Das Unternehmen identifizierte drei produktbezogene Probleme, die zu einer schlechteren Nutzererfahrung führten, dementierte jedoch vehement, das Modell absichtlich verschlechtert oder "generft" zu haben.
- Anthropic hat nach massiven Nutzerbeschwerden technische Probleme eingeräumt, die zu einem Leistungsabfall bei Claude Code führten.
- Die Qualitätseinbußen entstanden durch drei fehlerhafte Produkt-Updates, eine absichtliche Drosselung der KI wurde vehement dementiert.
- Als Entschuldigung für die nun behobenen Fehler setzte das Unternehmen die Nutzungslimits aller zahlenden Abonnenten zurück.
Nutzer hatten sich seit Wochen über die nachlassende Leistungsfähigkeit von Claude Code beklagt. Die Kritik reichte von der Unfähigkeit, komplexe technische Aufgaben zu bewältigen, bis hin zu Bezeichnungen wie "faul" oder "ignorant". Diese Beschwerden kamen, nachdem Anthropic zuvor für die technischen Fähigkeiten seiner Tools gelobt und auf Sekundärmärkten wie Forge Global mit rund 1 Billion Dollar bewertet worden war.
Technische Ursachen und Fehlerbehebung
Laut Anthropic, das die Ergebnisse in einem Blogbeitrag veröffentlichte, waren die zugrunde liegenden Modelle nicht betroffen. Stattdessen führten Anpassungen auf Produktebene zu den Problemen. Dazu gehörten eine Änderung der Standard-Denkstufe von Claude Code, eine Cache-Optimierung, die einen Fehler verursachte, sowie eine Systemaufforderung, die das Tool weniger wortreich machen sollte.
Anthropic erklärte, die Probleme seien bis zum 20. April 2026 vollständig behoben worden. Als Gegenmaßnahmen wurden unter anderem eine stärkere Nutzung der öffentlichen Version von Claude Code durch eigene Mitarbeiter, die Verbesserung des Code-Review-Tools und strengere Kontrollen bei Änderungen von System-Prompts genannt. Das Unternehmen bedankte sich bei den Nutzern für ihr Feedback und setzte die Nutzungslimits für alle Abonnenten zurück.
Die Bestätigung durch Anthropic wurde von einigen Nutzern als Validierung ihrer Beobachtungen empfunden. Ein X-Nutzer merkte an, dass Claude Code "verdummt" worden sei, genau zu dem Zeitpunkt, als Anthropic die Änderung der Standard-Denkstufe vorgenommen hatte. In unserem Glossar zu LLM-Degradation erfährst du mehr über dieses Phänomen.
Dieser Vorfall folgt auf eine weitere Kontroverse, bei der Anthropic testweise Claude Code aus dem Pro-Plan entfernte, was etwa 2 % der neuen Nutzer betraf. Weitere Details zu Preismodellen findest du in unserem Artikel über KI-Tool-Kosten oder in der Analyse zu Anthropic vs. OpenAI.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen