OpenAI hat sein spezialisiertes Programmiermodell Codex mit GPT-5.4 in das Hauptmodell überführt und damit eine separate Coding-Linie beendet. Das bestätigte Romain Huet, Head of Developer Experience bei OpenAI, öffentlich: Es gibt ab GPT-5.4 keine dedizierte Codex-Modelllinie mehr. GPT-5.3, das Anfang Februar 2026 erschien, war damit das letzte eigenständige Codex-Modell. Mit GPT-5.5 setzt OpenAI nun auf ein Modell, das Coding-Stärke und allgemeine Fähigkeiten unter einem Dach vereint — und dabei laut Huet deutliche Fortschritte beim agentic Coding, besserer Computernutzung und allgemeiner Leistung mitbringt.
- OpenAI stellt die separate Codex-Modelllinie erneut ein und integriert die Programmierfähigkeiten vollständig in das neue Hauptmodell GPT-5.5.
- Trotz einer gesteigerten Token-Effizienz bei identischen Aufgaben verdoppeln sich die Kosten für die API-Nutzung (100 Prozent Anstieg).
- Der Fokus von GPT-5.5 liegt auf agentic Coding, während die Codex-Agenten-Software als eigenständige Plattform weiterlebt.
Der wichtigste technische Unterschied: GPT-5.5 benötigt für dieselben Codex-Aufgaben weniger Tokens als sein Vorgänger GPT-5.4. Weniger Token-Verbrauch bei gleichwertigen oder besseren Ergebnissen klingt nach einem klaren Win für Entwickler. Der Haken: Auch wenn der Token-Verbrauch sinkt, verdoppeln sich die API-Preise (100 Prozent Anstieg). Wer GPT-5.5 über die API nutzt, zahlt also unterm Strich mehr — trotz der Effizienzgewinne auf Token-Ebene. Für Teams, die Codex intensiv im Backend einsetzen, ist das eine relevante Kostenkalkulation.
Der Fokus von GPT-5.5 liegt klar auf agentic Coding — also Szenarien, in denen das Modell Programmieraufgaben eigenständig und mehrstufig abarbeitet, ohne dass ein Mensch jeden Schritt bestätigt. Das ist der Bereich, in dem OpenAI aktuell den stärksten Wettbewerbsdruck spürt, unter anderem von Anthropics Claude Opus 4.7, das kurz zuvor erschien.
Für alle, die OpenAIs Modellgeschichte verfolgen, ist das ein bekanntes Muster. Das ursprüngliche Codex-Modell wurde bereits 2023 eingestellt — damals ebenfalls zugunsten allgemeiner Sprachmodelle. Im Mai 2025 kehrte Codex als Codex-1 zurück, basierend auf o3 und gekoppelt mit der gleichnamigen Codex-Agenten-Software. Jetzt wird die dedizierte Modelllinie erneut aufgelöst und ins Hauptmodell gezogen. Die Codex-Software als Plattform und Agent bleibt aber bestehen und ist laut OpenAI weiterhin ein zentraler Entwicklungsschwerpunkt neben ChatGPT.
Im Klartext: Codex als Markenname und Agenten-Tool lebt weiter. Codex als eigenständiges, separates Sprachmodell ist es nicht mehr. Wer also auf die Codex-Plattform setzt, nutzt künftig GPT-5.5 unter der Haube — mit einem Kontextfenster von 1.000.000 Tokens.
Die Integration in ein einziges Modell vereinfacht die Modellwahl für Teams, die bisher zwischen Codex und dem Hauptmodell abwägen mussten. Gleichzeitig bedeutet die Preisverdopplung auf API-Ebene, dass Budgets für KI-gestützte Entwicklungsworkflows neu kalkuliert werden müssen. Wer heute Codex für automatisierte Code-Reviews, Branch-Merges oder Test-Generierung einsetzt, sollte die Kostendifferenz gegen die Effizienzgewinne durch reduzierten Token-Verbrauch aufrechnen. Die Rechnung hängt stark vom konkreten Use Case ab — token-intensive Aufgaben profitieren stärker von der Effizienzverbesserung als kurze, punktuelle Anfragen. Für DSGVO-konforme Nutzung gilt weiterhin: Wer personenbezogene Daten im Coding-Kontext verarbeitet, muss die API-Nutzungsbedingungen und Datenspeicheroptionen von OpenAI prüfen, bevor er GPT-5.5 produktiv einsetzt.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen