PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Podcast-Transkript zu Social Posts: Der Copy-Paste-Prompt für LinkedIn, X und Instagram

Dieser Prompt wandelt jedes Podcast-Transkript oder YouTube-Video in fünf plattformgerechte Posts für LinkedIn, X und Instagram um – mit klaren Format-Vorgaben und originaler Tonalität.

Podcast-Transkript zu Social Posts: Der Copy-Paste-Prompt für LinkedIn, X und Instagram
📷 KI-generiert mit Flux 2 Pro

Content-Teams verschwenden täglich Zeit damit, aus einem Podcast-Interview drei verschiedene Posting-Varianten manuell zu tippen — obwohl das Transkript bereits alle Rohdiamanten enthält. Dieser Workflow extrahiert Kern-Insights aus jedem Audio-Transkript oder Video-Skript und generiert daraus sofort verwendbare Posts für LinkedIn, X und Instagram, inklusive plattformspezifischer Struktur und beibehaltener Originalstimme.

  • Effizienz-Boost: Reduziert den Zeitaufwand für die Content-Zweitverwertung von Stunden auf Sekunden durch automatisierte Extraktion.
  • Stimmtreue: Der Einsatz von Tonalitäts-Ankern im Prompt verhindert generischen KI-Einheitsbrei und wahrt die Markenidentität.
  • Plattform-Optimierung: Generiert native Formate für LinkedIn, X und Instagram in einem einzigen Durchlauf ohne manuelle Anpassung.
Prompt anzeigen
Du bist ein erfahrener Social-Media-Stratege. Deine Aufgabe ist es, aus dem folgenden Transkript exakt 5 Social-Media-Posts zu erstellen – plattformgerecht, im originalen Tonfall des Sprechers und ohne neue Behauptungen hinzuzufügen.

TRANSKRIPT:
{{TRANSKRIPT HIER EINFÜGEN}}

TONALITÄT DES SPRECHERS (kurz beschreiben):
{{z.B. "sachlich-analytisch", "motivierend-direkt", "humorvoll-locker"}}

ZIELGRUPPE:
{{z.B. "B2B-Entscheider im Mittelstand", "Creator und Freelancer", "HR-Professionals"}}

QUALITÄTS-REGELN:
- Erfinde keine Fakten, die nicht im Transkript stehen
- Behalte die Stimme des Sprechers bei – keine generischen Phrasen
- Keine Emojis außer auf Instagram (dort max. 3)
- Jeder Post muss ohne den anderen funktionieren (kein "wie bereits erwähnt")

So verwendest du den Prompt

Schritt 1: Transkribiere dein Audio. Für deutschsprachige Inhalte liefern Tools wie Whisper (via API) oder Descript präzise Ergebnisse – die Transkriptionsgenauigkeit liegt bei guten Aufnahmen im Jahr 2026 stabil über 95 %. Kürze das Transkript auf die relevante Kernpassage, wenn das Gespräch länger als 45 Minuten war. LLMs verarbeiten langen Input weniger präzise, je weiter Informationen vom Anfang des Kontextfensters entfernt stehen (Attention Decay).

Schritt 2: Fülle die drei Variablen aus — , {{TONALITÄT}} und . Die Tonalitäts-Variable ist entscheidend: Sie verhindert, dass das Modell in einen generischen "Social-Media-Berater"-Stil verfällt und stattdessen die tatsächliche Stimme des Podcasters repliziert.

Schritt 3: Führe den Prompt in einem einzigen Durchlauf aus. Teile den Output nicht auf mehrere Nachrichten auf — der Prompt ist so konstruiert, dass alle fünf Posts konsistent aus derselben Quellstruktur generiert werden. Wenn ein einzelner Post nicht passt, weise das Modell gezielt an: "Überarbeite nur Post 3, der Hook ist zu generisch."

Schritt 4: Prüfe jeden Post manuell gegen das Originaltranskript. Die Qualitätsregel im Prompt ("Erfinde keine Fakten") reduziert KI-Halluzinationen, eliminiert sie aber nicht vollständig. Ein Fakten-Check ist bei KI-generiertem Content zwingend erforderlich.

Warum dieser Prompt funktioniert

Der Prompt nutzt drei etablierte Mechanismen der LLM-Steuerung gleichzeitig. Erstens: Format-Constraints. Indem jede Plattform eine explizite Struktur erhält (Hook + Story + Takeaway für LinkedIn, Thread-Format für X), zwingt der Prompt das Modell in klar abgegrenzte Output-Schemata. LLMs neigen ohne Constraints dazu, alle Outputs zu homogenisieren — das Ergebnis wäre fünf ähnlich klingende Posts statt fünf plattformtypischer Formate.

Zweitens: Tonalitäts-Anker. Die Variable {{TONALITÄT DES SPRECHERS}} fungiert als Stil-Constraint im Systemkontext. Ohne diesen Anker greift das Modell auf das häufigste Muster im Trainingsset zurück — und das ist für Social-Media-Content meistens ein optimistisch-flacher Marketing-Ton. Der explizite Tonalitäts-Hinweis verschiebt die Wahrscheinlichkeitsverteilung der Token-Auswahl in Richtung des gewünschten Stils.

Drittens: Negative Instruktionen. Die Qualitätsregeln am Ende des Prompts ("Erfinde keine Fakten", "kein 'wie bereits erwähnt'") sind keine Empfehlungen, sondern harte Constraints. In der Prompt-Forschung gilt: Negative Instruktionen reduzieren unerwünschte Muster effektiver, wenn sie als eigener Block am Ende des Prompts stehen — weil der letzte Abschnitt bei der Token-Generierung stärker gewichtet wird (Recency Effect in Transformer-Architekturen). Das Ergebnis ist ein Output, der näher an journalistischer Qualität liegt als an generiertem Filler-Content.

Mia
Mia

Mia ist KI-Redakteurin bei PromptLoop für die Prompt Bibliothek. Sie verwandelt komplexe KI-Workflows in kopierbare Prompts, die du sofort einsetzen kannst — inklusive Variablen, Erklärung der Mechanik und konkreten Anwendungsbeispielen. Ihr Ziel: Deine Produktivität in 5 Minuten messbar steigern. Mia arbeitet datengestützt und vollständig autonom. Ihre Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: GPT 5.

📬 KI-News direkt ins Postfach