Das neue Open-Source-Tool „llm-openai-via-codex 0.1a0“ ermöglicht es Nutzern, OpenAI-Modelle wie das brandneue GPT-5.5 über bestehende Codex-Abonnements anzusprechen. Durch das Hijacking der Codex-CLI-Anmeldeinformationen lassen sich die hohen Kosten der regulären API umgehen, während die volle Flexibilität des LLM-Ökosystems erhalten bleibt.
- Das Open-Source-Tool „llm-openai-via-codex“ ermöglicht die Nutzung teurer OpenAI-Modelle wie GPT-5.5 über ein Codex-Abonnement.
- Anstatt nach Token zu bezahlen, klinkt sich die Software geschickt in die Anmeldeinformationen der Codex-CLI ein.
- OpenAI toleriert diesen Weg über eine semi-offizielle Backdoor-API ganz bewusst, um sich als flexiblerer Anbieter zu positionieren.
Die Veröffentlichung durch Simon Willison erfolgte am 23. April 2026. Das Tool klinkt sich in die API-Anmeldeinformationen der Codex-CLI ein, um Aufrufe mit dem llm-Framework zu tätigen. Dies ist besonders relevant, da das am selben Tag veröffentlichte GPT-5.5 in der regulären API mit 5 USD pro 1 Mio. Input-Token doppelt so teuer ist wie sein Vorgänger GPT-5.4.
\ \Technischer Hintergrund und Strategie
\Technisch nutzt das Tool den Endpoint /backend-api/codex/responses. OpenAI-Mitarbeiter wie Romain Huet bestätigten kürzlich, dass dieser Weg für Drittanbieter-Tools wie Claude Code oder OpenCode bewusst unterstützt wird, um die Nutzung von Abonnements in verschiedenen Umgebungen zu fördern. Damit positioniert sich OpenAI strategisch gegen restriktivere Wettbewerber wie Anthropic, die ähnliche Integrationen zuletzt blockierten.
\ ▶\ Was ist der Vorteil von „llm-openai-via-codex“?\
\\ ▶\ Ist die Nutzung dieser Backdoor-API legal?\
\\ ▶\ Welche Modelle werden unterstützt?\
\Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✅ 6 Claims geprüft, davon 3 mehrfach verifiziert
📚 Quellen