PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Mend.io stellt Rahmenwerk für KI-Sicherheits-Governance vor

Mend.io hat ein neues Rahmenwerk zur Verwaltung der KI-Sicherheit in Unternehmen veröffentlicht. Es adressiert Lücken zwischen schneller KI-Einführung und Governance.

Mend.io stellt Rahmenwerk für KI-Sicherheits-Governance vor
📷 KI-generiert mit Flux 2 Pro

Mend.io hat einen Leitfaden mit dem Titel „AI Security Governance: A Practical Framework for Security and Development Teams“ veröffentlicht. Das Rahmenwerk soll Unternehmen helfen, die Sicherheitsrisiken zu managen, die durch die schnelle Einführung von KI-Tools in ihren Betrieb entstehen.

⚡ TL;DR
  • Mend.io stellt ein neues Rahmenwerk vor, das Unternehmen bei der Überbrückung der kritischen Lücke zwischen rasanter KI-Einführung und interner Sicherheits-Governance unterstützt.
  • Um unregulierte Schatten-KI aufzudecken, empfiehlt der Leitfaden eine lückenlose und explizit nicht-bestrafende Erfassung aller verwendeten KI-Assets durch die Entwickler.
  • Ein integriertes Bewertungssystem teilt alle KI-Anwendungen anhand von fünf Risikodimensionen in drei Stufen ein, welche die jeweils erforderlichen Überwachungsmaßnahmen diktieren.

Das Problem, das Mend.io identifiziert, ist eine Sicherheitslücke: Während Entwickler und Analysten schnell KI-Anwendungen wie GitHub Copilot oder LLM-Tools integrieren, hinkt die Sicherheits-Governance oft hinterher. Dies führt dazu, dass KI-Systeme in der Produktion laufen, bevor Sicherheitsteams davon Kenntnis nehmen oder entsprechende Richtlinien implementieren können.

Ein zentraler Bestandteil des Frameworks ist das „Inventory Problem“. Es betont, dass Governance ohne vollständige Transparenz über alle verwendeten KI-Assets unmöglich ist. Zu diesen Assets gehören Entwicklungstools, Drittanbieter-APIs, Open-Source-Modelle, KI-Funktionen in SaaS-Tools, interne Modelle und autonome KI-Agenten. Um das Problem der „Schatten-KI“ zu lösen, also der Nutzung von Tools ohne Genehmigung der Sicherheitsabteilung, schlägt das Rahmenwerk einen nicht-bestrafenden Ansatz vor. Dies soll Entwickler ermutigen, die Verwendung solcher Tools offenzulegen.

Zudem führt das Framework ein gestuftes Risikobewertungssystem ein. Jedes KI-Asset wird anhand von fünf Dimensionen bewertet: Datensensitivität, Entscheidungsbefugnis, Systemzugriff, externe Exposition und Lieferkettenherkunft. Die Gesamtpunktzahl bestimmt die erforderliche Governance-Stufe:

  • Stufe 1 (Geringes Risiko): Punktzahl 5–7. Erfordert eine standardmäßige Sicherheitsüberprüfung und leichtes Monitoring.
  • Stufe 2 (Mittleres Risiko): Punktzahl 8–11. Löst eine erweiterte Überprüfung, Zugriffskontrollen und vierteljährliche Verhaltensprüfungen aus.
  • Stufe 3 (Hohes Risiko): Punktzahl 12–15. Erfordert eine vollständige Sicherheitsbewertung, Designüberprüfung, kontinuierliche Überwachung und einen einsatzbereiten Incident-Response-Plan.

Es wird betont, dass sich die Risikostufe eines Modells erheblich ändern kann, auch ohne Modifikation der zugrunde liegenden Technologie.

❓ Häufig gestellte Fragen

Welches Problem adressiert das neue Rahmenwerk von Mend.io?
Das Framework schließt die Sicherheitslücke, die durch die unkontrollierte und schnelle Einführung von KI-Werkzeugen in Unternehmen entsteht. Es hilft Sicherheitsteams dabei, Governance-Richtlinien zu etablieren, bevor diese Anwendungen unerkannt in die Produktion gelangen.
Wie geht das Konzept mit dem Problem der „Schatten-KI“ um?
Das Rahmenwerk erfordert eine vollständige Transparenz bezüglich aller genutzten KI-Assets, um heimliche Anwendungen im Unternehmen aufzudecken. Dabei wird gezielt ein nicht-bestrafender Ansatz gewählt, der Entwickler dazu ermutigt, ihre Tools angstfrei offenzulegen.
Wie funktioniert die Risikobewertung innerhalb des Frameworks?
Alle KI-Anwendungen werden anhand von fünf Dimensionen bewertet, zu denen beispielsweise Datensensitivität und Systemzugriff zählen. Die daraus resultierende Gesamtpunktzahl teilt das Tool in eine von drei Risikostufen ein, die exakt determinieren, welche Sicherheitsmaßnahmen erforderlich sind.

✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.

ℹ️ Wie wir prüfen →

📚 Quellen

Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach