OpenAI und Microsoft intensivieren ihre Zusammenarbeit im Bereich Cybersicherheit. Im Rahmen des neuen „Trusted Access for Cyber“-Programms von OpenAI erhält Microsoft Zugriff auf die fortschrittlichsten KI-Modelle von OpenAI, die für Sicherheitsaufgaben optimiert sind.
- Durch das neue „Trusted Access for Cyber“-Programm erhält Microsoft Zugriff auf die für Sicherheitsaufgaben optimierten KI-Modelle von OpenAI.
- Im Gegenzug setzt Microsoft sein gesamtes Cybersicherheitsteam ein, um die Modelle und die Infrastruktur von OpenAI umfassend zu schützen.
- Die erweiterte Partnerschaft erfolgt inmitten einer branchenweiten Debatte über den tatsächlichen Nutzen von großen Sprachmodellen in der Cyberabwehr.
Im Gegenzug verpflichtet sich Microsoft, sein gesamtes Cybersicherheitsteam für den Schutz der Modelle, Infrastruktur und gemeinsamen Kunden von OpenAI einzusetzen. Beide Unternehmen verweisen auf Microsofts „Secure Future Initiative“ (SFI), die darauf abzielt, das gesamte Ökosystem, einschließlich Open-Source-Software, zu stärken.
Diese Entwicklung findet inmitten einer branchenweiten Debatte über die tatsächlichen Fähigkeiten großer Sprachmodelle (LLMs) in Cybersicherheitsanwendungen statt. Jüngst sorgte Anthropic mit seinem „Mythos“-KI-Modell für Aufsehen, das angeblich in der Lage ist, Sicherheitslücken autonom zu finden und auszunutzen. Eine erste Studie stützte diese Behauptung, wenn auch nur begrenzt. Kritiker argumentieren jedoch, dass Open-Source-Modelle bereits ähnliche Funktionen bieten, was Anthorpics Ankündigung eher als Marketing denn als echten Durchbruch erscheinen lässt.
Die genaue Ausgestaltung und die unmittelbaren Auswirkungen des „Trusted Access“-Programms auf die breitere Cybersicherheitslandschaft bleiben abzuwarten, da die verfügbaren Informationen begrenzt sind.
❓ Häufig gestellte Fragen
✅ 9 Claims geprüft, davon 5 mehrfach verifiziert (learn.microsoft.com)
📚 Quellen