Die US-Regierung erhält künftig über das Center for AI Standards and Innovation (CAISI) des Handelsministeriums frühzeitigen Zugang zu neuen KI-Modellen von Google DeepMind, Microsoft und xAI, um diese vor der öffentlichen Veröffentlichung auf Risiken für Cybersecurity, Biosecurity und chemische Waffen zu prüfen.
- Die US-Behörde CAISI prüft ab sofort unveröffentlichte KI-Modelle von Google, Microsoft und xAI auf nationale Sicherheitsrisiken.
- Um realistische Missbrauchsszenarien zu simulieren, müssen die Tech-Konzerne ihre Modelle komplett ohne built-in Schutzvorkehrungen übergeben.
- Diese tiefgehenden US-Prüfungen könnten weltweit zu neuen Standard-Vorgaben werden und damit den europäischen Wettbewerb stark beeinflussen.
CAISI als neue Kontrollinstanz im US-Handelsministerium
CAISI, angesiedelt im US-Handelsministerium, dient als eine Schnittstelle zwischen der Tech-Industrie und der Bundesregierung. Die Hauptaufgaben umfassen die Entwicklung von Standards, die Bewertung von Risiken und die Messung der Leistungsfähigkeit kommerzieller KI-Systeme in kontrollierten Umgebungen. Diese Vorabprüfung, so CAISI-Direktor Chris Fall, ist entscheidend, um die Fähigkeiten und nationalen Sicherheitsauswirkungen neuer, leistungsstarker Modelle zu verstehen und zu schützen, wobei der Fokus auf unabhängige und rigorose Messwissenschaft gelegt wird.
Die Vereinbarungen richten sich an die drei Haupt-Risikofelder, die in geopolitischen KI-Debatten immer wieder thematisiert werden: Angriffe auf IT-Systeme, Missbrauch für biologische Risiken und die Unterstützung chemischer Waffen. Unternehmen teilen dabei unveröffentlichte Modelle, bei denen Sicherheitsmaßnahmen reduziert oder entfernt wurden, um umfassende Tests der nationalen Sicherheitskapazitäten und -risiken zu ermöglichen. Dies ist für Unternehmen heikel, da Modelle ohne Schutzvorkehrungen einerseits realistischer für Missbrauchsszenarien sind, andererseits das Risiko von Lecks, Fehlinterpretationen und politischem Gegenwind bei Bekanntwerden der Testergebnisse steigt.
Skalierung der Sicherheitsüberprüfungen
Es ist wichtig zu beachten, dass CAISI nicht zum ersten Mal solche Prüfungen durchführt; die Behörde hat bereits über 40 Evaluationsrunden abgeschlossen, darunter auch Tests unveröffentlichter Modelle. Erst im April 2026 evaluierte das Institut das Open-Weight-Modell DeepSeek V4 Pro auf spezifische Sicherheitsvorgaben. Ähnliche Vereinbarungen gab es bereits vor zwei Jahren mit OpenAI und Anthropic. Die aktuelle Entwicklung ist bedeutsam, da nun mit Google DeepMind, Microsoft und xAI drei Schwergewichte mit unterschiedlichen Produkt- und Governance-Kulturen in denselben Prüfrahmen aufgenommen werden.
Für DACH-Unternehmen bedeutet dies, dass Fragen zu Vorabtests, Evaluierungsmethoden und „Red Teaming“-Nachweisen häufiger Bestandteil von Verträgen beim Kauf oder der Integration von KI-Systemen werden. Die EU steht vor der operativen Phase des AI Act, und obwohl CAISI ein US-Programm ist, könnte es als Referenzrahmen in internationalen Ausschreibungen dienen. Europäische Anbieter stehen vor der Chance, da standardisierte Tests Markteintrittsbarrieren für „Ship-fast“-Player schaffen, aber auch vor dem Risiko, dass globale US-Standards de facto zu Einkaufsstandards werden, bevor europäische Institutionen eigene Prüfkapazitäten im gleichen Tempo skalieren können.
❓ Häufig gestellte Fragen
✅ 7 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen