OpenAI hat am 22. April 2026 den "OpenAI Privacy Filter" als Open-Weight-Modell veröffentlicht. Das System ist speziell auf die kontextbezogene Erkennung und Schwärzung personenbezogener Daten (PII) in unstrukturierten Texten trainiert. Mit 1,5 Milliarden Parametern und einem Kontextfenster von 128.000 Token arbeitet das Modell lokal und ermöglicht es Entwicklern, sensible Daten zu maskieren, ohne diese an externe Server übermitteln zu müssen. Der bidirektionale Token-Klassifikator teilt Eingaben in acht Kategorien ein, darunter Kontaktinformationen, Kontonummern und API-Keys. Das Modell steht ab sofort unter der Apache-2.0-Lizenz auf Entwicklerplattformen wie GitHub zur Verfügung.
- OpenAI hat mit dem Privacy Filter ein 1,5-Milliarden-Parameter starkes Open-Weight-Modell zur lokalen Datenschwärzung veröffentlicht.
- Das auf acht Kategorien trainierte System maskiert sensible Informationen lokal, ohne Daten an externe Server übermitteln zu müssen.
- Durch den ressourcenschonenden Betrieb unterstützt der Filter Unternehmen bei der Einhaltung von DSGVO und dem EU AI Act.
Die Veröffentlichung zielt direkt auf die hohen Compliance-Anforderungen komplexer KI-Pipelines ab. Durch den rein lokalen Betrieb am Rand des Netzwerks adressiert die Architektur gezielt zentrale Herausforderungen des Datenschutzes. Für Unternehmen im DACH-Raum liefert diese Verfügbarkeit einen technischen Hebel, um rechtliche Vorgaben der DSGVO und zukünftige Governance-Pflichten des EU AI Acts beim Umgang mit proprietären Daten nahtlos abzubilden. Da die Architektur für hohen Durchsatz optimiert ist, lassen sich riesige Datenmengen ressourcenschonend bereinigen. Im Benchmark PII-Masking-300k erreicht das Modell nach Fehlerbereinigung einen F1-Score von 97,43 Prozent und kann bereits mit geringen Datenmengen für spezifische Unternehmens-Workflows feingetunt werden.
❓ Häufig gestellte Fragen
📚 Quellen