Die Trump-Administration hat neue Kooperationsvereinbarungen mit Microsoft, Google DeepMind und Elon Musks xAI geschlossen, um nationale Sicherheitsrisiken und KI-Fähigkeiten besser bewerten zu können.
- Microsoft, Google DeepMind und xAI gewähren der US-Behörde CAISI künftig Zugang zu ihren neuesten KI-Modellen vor dem Marktstart.
- Regierungsexperten prüfen diese Systeme dabei ohne Sicherheitsfilter auf potenzielle nationale Risiken wie KI-gestützte Cyberangriffe.
- Diese präventiven Sicherheitstests der USA erhöhen den Druck auf europäische Regulierer bei der Umsetzung des EU AI Acts enorm.
Präventive Sicherheitstests für Frontier-Modelle
Das Center for AI Standards and Innovation (CAISI), eine Einheit des Commerce Department's National Institute of Standards and Technology (NIST), erhält künftig frühzeitigen Zugang zu den Frontier-Modellen der drei Unternehmen noch vor deren öffentlicher Veröffentlichung. Ein zentrales Detail ist, dass die Entwickler CAISI ihre Modelle mit reduzierten oder vollständig entfernten Sicherheitsfiltern zur Verfügung stellen. Dies ermöglicht Evaluatoren aus verschiedenen Behörden, sicherheitsrelevante Fähigkeiten und Risiken uneingeschränkt zu beurteilen, um echte Capability-Assessments unter realen Bedingungen durchzuführen.
CAISI koordiniert sogenannte Pre-Deployment-Evaluationen, also Prüfungen, bevor ein Modell auf den Markt kommt. Experten aus mehreren US-Behörden, gebündelt in der TRAINS Taskforce, einer interagency-Arbeitsgruppe mit Fokus auf KI und nationale Sicherheit, fließen in diese Bewertungen ein. Diese Taskforce liefert regelmäßiges Feedback aus den Evaluationsprozessen an die Entwickler zurück. CAISI Director Chris Fall betont die Bedeutung unabhängiger, rigoroser Messwissenschaft für das Verständnis von Frontier AI und ihren nationalen Sicherheitsimplikationen. Die Vereinbarungen sind bewusst flexibel gestaltet, um mit dem Tempo der KI-Entwicklung Schritt zu halten.
Erweiterung der nationalen Sicherheitsarchitektur
Die neuen Vereinbarungen sind eine Erweiterung eines bereits bestehenden Programms, da OpenAI und Anthropic bereits ähnliche Partnerschaften mit CAISI seit 2024 unterhalten. Seitdem hat die Behörde über 40 Evaluationen durchgeführt, darunter Modelle, die zum Zeitpunkt der Prüfung noch nicht öffentlich verfügbar waren. Mit den drei neuen Partnern wächst der Kreis der abgedeckten Frontier-Anbieter auf insgesamt fünf Hauptakteure. CAISI selbst wurde 2023 unter Präsident Biden gegründet und von der Trump-Administration unter neuem Namen neu aufgestellt, passend zu Trumps 28-seitigem KI-Aktionsplan vom Juli 2025. Microsoft unterzeichnete zudem eine vergleichbare Vereinbarung mit dem britischen AI Security Institute (AISI), was den wachsenden internationalen Koordinationsbedarf bei KI-Sicherheitsfragen unterstreicht.
Microsofts KI-Chefin Natasha Crampton begründet die Kooperation mit der Notwendigkeit kontinuierlicher, rigoroser Tests, um Vertrauen in fortschrittliche KI-Systeme aufzubauen. Sie weist auf konkrete Risiken wie KI-gestützte Cyberangriffe hin, die nur durch frühzeitige Tests erkennbar seien. Diese Zusammenarbeit ermöglicht es den Unternehmen, Risiken vor dem öffentlichen Launch zu identifizieren, und der Regierung, Einblick in Systeme zu erhalten, bevor sie sich in der Breite verteilen. Für den DACH-Raum ist diese Entwicklung ein wichtiger Referenzpunkt, da der EU AI Act ebenfalls verpflichtende Konformitätsbewertungen für Hochrisiko-KI-Systeme vorsieht. Die Institutionalisierung eines strukturierten Pre-Deployment-Review-Prozesses in den USA erhöht den Druck auf europäische Regulierer, ähnliche Mechanismen zu etablieren oder sich auf gegenseitige Anerkennung zu einigen.
❓ Häufig gestellte Fragen
✅ 12 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen