PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

OpenAI sucht 'Jailbreaks' für GPT-5.5-Biosicherheit

OpenAI hat ein Kopfgeldprogramm für Forscher gestartet, die universelle 'Jailbreaks' für Biosicherheitsfragen in GPT-5.5 finden.

OpenAI sucht 'Jailbreaks' für GPT-5.5-Biosicherheit
📷 KI-generiert mit Flux 2 Pro

OpenAI hat ein "Bio Bug Bounty"-Programm für sein Modell GPT-5.5 ins Leben gerufen. Ziel ist es, Forscher zu finden, die universelle "Jailbreaks" entwickeln können, um die Biosicherheitsvorkehrungen des Modells zu umgehen.

⚡ TL;DR
  • OpenAI hat ein Risiko-Prämien-Programm gestartet, um durch gezielte Angriffe Schwachstellen in den Biosicherheitsvorkehrungen von GPT-5.5 zu finden.
  • Sicherheitsexperten sollen einen universellen Jailbreak entwickeln, der die Moderationssysteme für fünf spezifische Biosicherheitsfragen umgeht.
  • Dem ersten Entwickler einer solchen Umgehung winkt eine Belohnung von 25.000 US-Dollar, wobei die Teilnahme eine Bewerbung und ein NDA voraussetzt.

Das Unternehmen lädt Experten aus den Bereichen KI-Red Teaming, Sicherheit und Biosicherheit ein, eine universelle Eingabeaufforderung zu finden. Diese soll in der Lage sein, alle fünf Biosicherheitsfragen von GPT-5.5 in "Codex Desktop" zu beantworten, ohne dass die Moderationssysteme des Modells ausgelöst werden.

Für den ersten erfolgreichen universellen Jailbreak, der alle fünf Fragen umgeht, lobt OpenAI eine Belohnung von 25.000 US-Dollar aus. Kleinere Prämien können nach Ermessen des Unternehmens für Teilerfolge vergeben werden.

Die Bewerbungsphase für das Programm begann am 23. April 2026 und endet am 22. Juni 2026. Die Testphase läuft vom 28. April 2026 bis zum 27. Juli 2026. Der Zugang zum Programm erfolgt über Bewerbung und Einladung. Ausgewählte Teilnehmer müssen eine Geheimhaltungsvereinbarung (NDA) unterzeichnen.

Interessierte Forscher können sich mit Namen, Zugehörigkeit und Erfahrung bewerben. Für die Teilnahme ist ein bestehendes ChatGPT-Konto erforderlich.

❓ Häufig gestellte Fragen

Was ist das Ziel des "Bio Bug Bounty"-Programms von OpenAI?
Das Programm sucht nach Experten, die universelle Jailbreaks für GPT-5.5 entwickeln können. Ziel ist es, die Biosicherheitsvorkehrungen des Modells systematisch zu testen und mögliche Schwachstellen aufzudecken.
Wie hoch ist die Belohnung für einen erfolgreichen Jailbreak?
Für den ersten erfolgreichen universellen Jailbreak, der alle fünf definierten Biosicherheitsfragen umgeht, zahlt OpenAI 25.000 US-Dollar. Für teilweise erfolgreiche Lösungsansätze können zudem kleinere Prämien vergeben werden.
Wer kann an dem Kopfgeldprogramm teilnehmen und welche Bedingungen gelten?
Das Programm richtet sich an Experten für KI-Sicherheit und Biosicherheit, die sich gezielt bewerben müssen. Ausgewählte Teilnehmer benötigen ein ChatGPT-Konto und verpflichten sich über eine Geheimhaltungsvereinbarung (NDA) zur Verschwiegenheit.

✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.

ℹ️ Wie wir prüfen →

📚 Quellen

Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach