Few-Shot Prompting
Was ist Few-Shot Prompting?
Few-Shot Prompting bezeichnet die Methode, einem Large Language Model (LLM) im Prompt mehrere Beispiele in Form von Input-Output-Paaren mitzugeben, bevor die eigentliche Aufgabe gestellt wird. Das Modell liest die Beispiele, erkennt das dahinterliegende Muster und überträgt es auf die neue Anfrage — ohne zusätzliches Training. Der Gegenpol ist Zero-Shot Prompting, bei dem das Modell komplett ohne Beispiele auskommen muss. Während Zero-Shot für klare, gut definierte Aufgaben funktioniert, stößt es bei Formaten, Sprachstilen oder domänenspezifischen Logiken schnell an seine Grenzen. Few-Shot schließt diese Lücke, indem es dem Modell zeigt, was gemeint ist — statt es nur zu beschreiben. Verwandt, aber konzeptuell verschieden, ist Chain-of-Thought Prompting, das das Modell dazu bringt, seinen Denkprozess Schritt für Schritt offenzulegen.
Wie funktioniert Few-Shot Prompting?
LLMs sind im Kern Mustererkennungsmaschinen, trainiert auf riesigen Textkorpora. Wenn du ihnen im Kontext-Fenster (Context Window) mehrere konsistente Beispielpaare lieferst, aktiviert das Modell intern die Gewichte, die mit diesem Muster assoziiert sind — ein Mechanismus, der als In-Context Learning bezeichnet wird. Das Modell wird dabei nicht neu trainiert; die Anpassung geschieht ausschließlich zur Inferenzzeit. Entscheidend für die Qualität ist dabei weniger die Anzahl der Beispiele als deren Relevanz und Konsistenz: Rauschen in den Beispielen führt direkt zu rauschenden Outputs. Ein typischer Few-Shot Prompt besteht aus einem optionalen System-Prompt, zwei bis fünf Input-Output-Paaren und der eigentlichen Aufgabe. Jedes zusätzliche Beispiel kostet Token — und damit bei API-Nutzung bare Münze. Der Trade-off zwischen Präzisionsgewinn und Token-Kosten ist deshalb ein realer Engineering-Parameter, besonders bei hohem Anfragevolumen.
Few-Shot Prompting in der Praxis
Im Content-Bereich nutzen Teams Few-Shot Prompting, um LLMs wie ChatGPT, Claude oder Gemini auf einen spezifischen Markenton einzuschwören — etwa durch drei Beispiele von Headlines im gewünschten Stil, bevor das Modell eigene generiert. In der Softwareentwicklung setzen Entwickler Few-Shot-Prompts ein, um Modelle konsistent in bestimmten Code-Konventionen oder Kommentarstilen zu halten, ohne Fine-Tuning anfassen zu müssen. Ein weiterer klassischer Anwendungsfall ist die strukturierte Datenextraktion: Wer aus unstrukturierten Texten immer dasselbe JSON-Schema ziehen will, gibt dem Modell zwei bis drei Beispiel-Extraktionen mit — der Output wird damit drastisch konsistenter als mit reiner Beschreibung.
Vorteile und Grenzen
Der größte Vorteil von Few-Shot Prompting ist seine Flexibilität: Du passt ein Modell ohne Fine-Tuning, ohne Rechenaufwand und ohne ML-Expertise an neue Aufgaben an. Gerade wenn kein spezialisiert trainiertes Modell verfügbar ist, ist Few-Shot der schnellste Weg zu brauchbaren Ergebnissen. Die Technik skaliert außerdem gut mit der Modellgröße — leistungsfähigere Modelle profitieren stärker von wenigen Beispielen als kleinere. Die Grenzen liegen dagegen klar auf der Hand: Schlechte oder widersprüchliche Beispiele erzeugen schlechte Outputs, manchmal schlechtere als Zero-Shot. Das Context Window begrenzt die Anzahl nutzbarer Beispiele; bei sehr langen Beispielen sinkt der nutzbare Spielraum schnell. Und schließlich bleibt Few-Shot Prompting ein statistisches Werkzeug — Garantien für deterministische Ausgaben gibt es nicht. Für Produktivsysteme mit hohen Konsistenzanforderungen ist Fine-Tuning oft die robustere, wenn auch aufwändigere Alternative.