Die Veröffentlichung von LLM 0.31 erweitert die Steuerungsmöglichkeiten für Nutzer von OpenAI-Sprachmodellen über die Kommandozeile. Die Aktualisierung integriert das neue GPT-5.5-Modell und bietet detailliertere Anpassungen für dessen Ausgabe.
- Die Version LLM 0.31 integriert das neue Modell GPT-5.5 und erweitert die Kommandozeilen-Steuerung für OpenAI-Werkzeuge.
- Mit dem neuen Parameter `-o verbosity` lässt sich die Ausführlichkeit der Textgenerierung bei GPT-5+ Modellen in drei Stufen anpassen.
- Die Option `-o image_detail` bietet zusätzliche Detailstufen für Bildanhänge bis hin zur Originaldarstellung für neue Modelle.
Eine zentrale Neuerung ist die Möglichkeit, die Textausführlichkeit für GPT-5+ Modelle zu steuern. Nutzer können nun mit dem Parameter `-o verbosity` zwischen den Stufen `low`, `medium` und `high` wählen, um die Länge und Detailtiefe der generierten Texte anzupassen. Dies ist besonders nützlich für Prompt Engineering Workflows, die präzise Ausgaben erfordern.
Ebenso wurde die Bilddetailstufe für Bildanhänge bei OpenAI-Modellen erweitert. Der Parameter `-o image_detail` erlaubt die Auswahl zwischen `low`, `high` und `auto`. Für die Modelle GPT-5.4 und GPT-5.5 steht zusätzlich die Option `original` zur Verfügung, was eine unveränderte Darstellung des Bildmaterials ermöglicht. Laut offiziellen Benchmarks von OpenAI verbessert GPT-5.5 die Effizienz bei bildbasierten Aufgaben um ca. 15 % gegenüber dem Vorgänger.
Des Weiteren werden Modelle, die in der Datei `extra-openai-models.yaml` gelistet sind, nun auch asynchron registriert. Dies betrifft die interne Verarbeitung und Zugänglichkeit dieser Modelle innerhalb des LLM-Frameworks. Weitere Details finden sich in unseren LLM-CLI Tutorials oder im OpenAI Modell-Vergleich.
Diese Informationen basieren auf der Veröffentlichung von Simon Willison am 24. April 2026, die die technische Implementierung dieser Funktionen im LLM-Ökosystem dokumentiert.