PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Mend stellt Framework für KI-Sicherheits-Governance vor

Mend hat einen Leitfaden zur KI-Sicherheits-Governance veröffentlicht. Er soll Unternehmen helfen, Risiken durch unkontrollierte KI-Nutzung zu minimieren.

Mend stellt Framework für KI-Sicherheits-Governance vor
📷 KI-generiert mit Flux 2 Pro

Mend hat einen praktischen Leitfaden für Teams in Sicherheit und Entwicklung veröffentlicht, um die Governance von KI-Systemen in Unternehmen zu verbessern. Das Dokument mit dem Titel „AI Security Governance: A Practical Framework for Security and Development Teams“ adressiert die Herausforderung, dass KI-Anwendungen oft unkontrolliert in Unternehmen eingeführt werden, bevor Sicherheits- und Governance-Teams involviert sind.

⚡ TL;DR
  • Mend veröffentlicht ein neues Framework, das Unternehmen hilft, die unkontrollierte Nutzung von KI-Anwendungen sicher und transparent zu steuern.
  • Ein Kernbestandteil ist die straffreie Erfassung aller eingesetzten KI-Werkzeuge, um Entwickler zur Offenlegung ihrer Schatten-KI zu motivieren.
  • Ein integriertes Risikostufensystem bewertet jede KI-Lösung anhand von fünf Kriterien und ordnet automatisch passende Sicherheitsmaßnahmen zu.

Der Kern des Frameworks ist die Notwendigkeit der Transparenz über alle eingesetzten KI-Assets. Dazu zählen Entwicklungstools wie GitHub Copilot, APIs von Drittanbietern wie OpenAI, Open-Source-Modelle, KI-Funktionen in SaaS-Produkten (z.B. Notion AI), interne Modelle und autonome KI-Agenten. Das Framework betont, dass die Erfassung dieser „Schatten-KI“ in einem nicht-bestrafenden Umfeld erfolgen sollte, um Entwickler zur Offenlegung zu ermutigen.

Ein zentraler Bestandteil des Frameworks ist ein Risikostufensystem zur Kategorisierung von KI-Implementierungen. Jedes KI-Asset wird anhand von fünf Kriterien mit 1 bis 3 Punkten bewertet: Datenempfindlichkeit, Entscheidungsbefugnis, Systemzugriff, externe Exposition und Ursprung der Lieferkette. Die Gesamtpunktzahl bestimmt die erforderlichen Governance-Maßnahmen:

  • **Tier 1 (Niedriges Risiko):** 5-7 Punkte, erfordert Standard-Sicherheitsprüfung und leichtes Monitoring.
  • **Tier 2 (Mittleres Risiko):** 8-11 Punkte, führt zu erweiterter Überprüfung, Zugriffskontrollen und vierteljährlichen Verhaltensprüfungen.
  • **Tier 3 (Hohes Risiko):** 12-15 Punkte, erfordert eine vollständige Sicherheitsbewertung, Designprüfung und kontinuierliches Monitoring.

Der Leitfaden zielt darauf ab, AppSec-Leads, Engineering-Managern und Datenwissenschaftlern einen Ausgangspunkt für den Aufbau einer KI-Sicherheitsstrategie zu bieten, auch wenn noch kein ausgereiftes Sicherheitsprogramm für KI existiert.

❓ Häufig gestellte Fragen

Welches Hauptproblem löst der neue KI-Leitfaden von Mend?
Das Framework adressiert die Herausforderung, dass KI-Anwendungen in Unternehmen oft unkontrolliert als sogenannte Schatten-KI eingesetzt werden, bevor Sicherheitsteams involviert sind. Es hilft den Verantwortlichen dabei, diese verdeckten Tools transparent zu erfassen und künftig sicher zu steuern.
Wie funktioniert das Risikostufensystem des Frameworks?
Jedes eingesetzte KI-Tool wird anhand von fünf Kriterien wie Datenempfindlichkeit, Systemzugriff und externer Exposition mit einem Punktesystem bewertet. Aufgrund der erreichten Gesamtpunktzahl erfolgt die Einordnung in eine von drei Risikokategorien, die genau vorschreiben, welche Überprüfungen und zwingenden Sicherheitsmaßnahmen nötig sind.
Welche Werkzeuge zählen laut dem Framework zu den erfassten KI-Assets?
Zu den aufzuspürenden KI-Assets gehören nicht nur etablierte interne oder Open-Source-Modelle, sondern auch Entwicklungstools wie GitHub Copilot, externe APIs und integrierte KI-Funktionen in SaaS-Lösungen. Die Erfassung all dieser Tools soll bewusst in einem straffreien Umfeld passieren, um die Entwickler zur Kooperation zu motivieren.

✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.

ℹ️ Wie wir prüfen →

📚 Quellen

Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach