OpenAI hat ein "Bio Bug Bounty"-Programm für sein Modell GPT-5.5 ins Leben gerufen. Ziel ist es, Forscher zu finden, die universelle "Jailbreaks" entwickeln können, um die Biosicherheitsvorkehrungen des Modells zu umgehen.
- OpenAI hat ein Risiko-Prämien-Programm gestartet, um durch gezielte Angriffe Schwachstellen in den Biosicherheitsvorkehrungen von GPT-5.5 zu finden.
- Sicherheitsexperten sollen einen universellen Jailbreak entwickeln, der die Moderationssysteme für fünf spezifische Biosicherheitsfragen umgeht.
- Dem ersten Entwickler einer solchen Umgehung winkt eine Belohnung von 25.000 US-Dollar, wobei die Teilnahme eine Bewerbung und ein NDA voraussetzt.
Das Unternehmen lädt Experten aus den Bereichen KI-Red Teaming, Sicherheit und Biosicherheit ein, eine universelle Eingabeaufforderung zu finden. Diese soll in der Lage sein, alle fünf Biosicherheitsfragen von GPT-5.5 in "Codex Desktop" zu beantworten, ohne dass die Moderationssysteme des Modells ausgelöst werden.
Für den ersten erfolgreichen universellen Jailbreak, der alle fünf Fragen umgeht, lobt OpenAI eine Belohnung von 25.000 US-Dollar aus. Kleinere Prämien können nach Ermessen des Unternehmens für Teilerfolge vergeben werden.
Die Bewerbungsphase für das Programm begann am 23. April 2026 und endet am 22. Juni 2026. Die Testphase läuft vom 28. April 2026 bis zum 27. Juli 2026. Der Zugang zum Programm erfolgt über Bewerbung und Einladung. Ausgewählte Teilnehmer müssen eine Geheimhaltungsvereinbarung (NDA) unterzeichnen.
Interessierte Forscher können sich mit Namen, Zugehörigkeit und Erfahrung bewerben. Für die Teilnahme ist ein bestehendes ChatGPT-Konto erforderlich.
❓ Häufig gestellte Fragen
✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.
📚 Quellen