OpenAI: GPT-5.5 Prompt-Leitfaden fordert radikalen Neuanfang
OpenAI hat einen neuen Leitfaden für die Prompt-Erstellung bei GPT -5.
- OpenAI rät Entwicklern entschieden davon ab, alte Prompts für GPT-5.5 wiederzuverwenden, da diese die Effizienz des neuen Modells stören.
- Statt kleinteiligem Mikromanagement fordert das Modell kurze, ergebnisorientierte Anweisungen, die primär das Ziel und den Kontext definieren.
- Die klassische Rollendefinition feiert ein Comeback und bildet zusammen mit präzisen Abbruch- und Zitierregeln das Fundament optimaler Prompts.
OpenAI hat einen neuen Leitfaden für die Prompt-Erstellung bei GPT-5.5 veröffentlicht. Die zentrale Botschaft an Entwickler: Alte Prompts sollen nicht wiederverwendet werden. Stattdessen wird ein Neuanfang mit minimalen, ergebnisorientierten Anweisungen empfohlen. Auch Rollendefinitionen, die zwischenzeitlich als überholt galten, sind wieder ein Kernbestandteil der Prompt-Struktur.
Der Leitfaden weist darauf hin, dass GPT-5.5 nicht als direkter Ersatz für Vorgängermodelle wie GPT-5.2 oder GPT-5.4 betrachtet werden sollte. Stattdessen soll die Migration mit dem kleinstmöglichen Prompt beginnen, der die gewünschte Aufgabe erfüllt. Erst danach sollen Aspekte wie Denkaufwand, Umfang, Tool-Beschreibungen und Ausgabeformate anhand repräsentativer Beispiele angepasst werden.
OpenAI betont, dass GPT-5.5 effizienter argumentiert. Daher sollten Entwickler zunächst die „niedrigen“ und „mittleren“ Anstrengungsstufen testen. Kurze, ergebnisorientierte Prompts erzielen demnach bessere Resultate als prozesslastige Prompt-Stacks.
Eine explizite Warnung gilt der Übernahme alter Anweisungen. Frühere Modelle benötigten oft detailliertere Prozessbeschreibungen. Bei GPT-5.5 können solche zusätzlichen Details jedoch Störungen verursachen, den Suchraum des Modells einschränken oder zu mechanisch klingenden Antworten führen.
Der Prompt soll stattdessen das gewünschte Ergebnis, Erfolgskriterien, Einschränkungen und den verfügbaren Kontext definieren. Das Modell soll dann selbst den Weg zur Lösung finden. Als positives Beispiel nennt OpenAI einen Kundenservice-Prompt, der lediglich das Ziel vorgibt: „Lösen Sie das Problem des Kunden vollständig.“ Negative Beispiele hingegen mikromanagen jeden Schritt.
Absolute Regeln wie „IMMER“ oder „NIEMALS“ sollen nur für unveränderliche Vorgaben wie Sicherheitsregeln oder erforderliche Ausgabefelder verwendet werden. Für Ermessensentscheidungen empfiehlt OpenAI Entscheidungsregeln. Explizite Abbruchbedingungen sollen unnötige Tool-Schleifen verhindern.
Die empfohlene Prompt-Struktur beginnt wieder mit einer Rollendefinition und Kontext. Diese soll die Funktion, den Kontext und die Aufgabe des Modells in ein bis zwei Sätzen beschreiben. Es folgen Sektionen für Persönlichkeit, Ziel, Erfolgskriterien, Einschränkungen, Ausgabe und Abbruchregeln. Diese Struktur soll als Ausgangspunkt dienen und nicht als starre Vorlage.
Für faktenbasierte Antworten sollen Zitierregeln direkt im Prompt festgelegt werden. Dies umfasst, welche Behauptungen Belege benötigen, was als ausreichender Beleg gilt und wie das Modell bei fehlenden Belegen reagieren soll. Auch Abrufbudgets, die als Abbruchregeln für Suchvorgänge dienen, werden beschrieben.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 4 mehrfach verifiziert
📚 Quellen