PromptLoop
News Analyse Werkstatt Generative Medien Originals Glossar KI-Modelle Vergleich Kosten-Rechner

CAISI: Microsoft, Google DeepMind und xAI geben US-Regierung Zugang zu KI-Modellen

Die Trump-Administration hat neue Vereinbarungen mit Microsoft, Google DeepMind und xAI geschlossen: CAISI prüft KI-Modelle vor Veröffentlichung auf Sicherheitsrisiken.

CAISI: Microsoft, Google DeepMind und xAI geben US-Regierung Zugang zu KI-Modellen
📷 KI-generiert mit Flux 2 Pro

Die Trump-Administration hat neue Kooperationsvereinbarungen mit Microsoft, Google DeepMind und Elon Musks xAI geschlossen, um nationale Sicherheitsrisiken und KI-Fähigkeiten besser bewerten zu können.

⚡ TL;DR
  • Microsoft, Google DeepMind und xAI gewähren der US-Behörde CAISI künftig Zugang zu ihren neuesten KI-Modellen vor dem Marktstart.
  • Regierungsexperten prüfen diese Systeme dabei ohne Sicherheitsfilter auf potenzielle nationale Risiken wie KI-gestützte Cyberangriffe.
  • Diese präventiven Sicherheitstests der USA erhöhen den Druck auf europäische Regulierer bei der Umsetzung des EU AI Acts enorm.

Präventive Sicherheitstests für Frontier-Modelle

Das Center for AI Standards and Innovation (CAISI), eine Einheit des Commerce Department's National Institute of Standards and Technology (NIST), erhält künftig frühzeitigen Zugang zu den Frontier-Modellen der drei Unternehmen noch vor deren öffentlicher Veröffentlichung. Ein zentrales Detail ist, dass die Entwickler CAISI ihre Modelle mit reduzierten oder vollständig entfernten Sicherheitsfiltern zur Verfügung stellen. Dies ermöglicht Evaluatoren aus verschiedenen Behörden, sicherheitsrelevante Fähigkeiten und Risiken uneingeschränkt zu beurteilen, um echte Capability-Assessments unter realen Bedingungen durchzuführen.

CAISI koordiniert sogenannte Pre-Deployment-Evaluationen, also Prüfungen, bevor ein Modell auf den Markt kommt. Experten aus mehreren US-Behörden, gebündelt in der TRAINS Taskforce, einer interagency-Arbeitsgruppe mit Fokus auf KI und nationale Sicherheit, fließen in diese Bewertungen ein. Diese Taskforce liefert regelmäßiges Feedback aus den Evaluationsprozessen an die Entwickler zurück. CAISI Director Chris Fall betont die Bedeutung unabhängiger, rigoroser Messwissenschaft für das Verständnis von Frontier AI und ihren nationalen Sicherheitsimplikationen. Die Vereinbarungen sind bewusst flexibel gestaltet, um mit dem Tempo der KI-Entwicklung Schritt zu halten.

Erweiterung der nationalen Sicherheitsarchitektur

Die neuen Vereinbarungen sind eine Erweiterung eines bereits bestehenden Programms, da OpenAI und Anthropic bereits ähnliche Partnerschaften mit CAISI seit 2024 unterhalten. Seitdem hat die Behörde über 40 Evaluationen durchgeführt, darunter Modelle, die zum Zeitpunkt der Prüfung noch nicht öffentlich verfügbar waren. Mit den drei neuen Partnern wächst der Kreis der abgedeckten Frontier-Anbieter auf insgesamt fünf Hauptakteure. CAISI selbst wurde 2023 unter Präsident Biden gegründet und von der Trump-Administration unter neuem Namen neu aufgestellt, passend zu Trumps 28-seitigem KI-Aktionsplan vom Juli 2025. Microsoft unterzeichnete zudem eine vergleichbare Vereinbarung mit dem britischen AI Security Institute (AISI), was den wachsenden internationalen Koordinationsbedarf bei KI-Sicherheitsfragen unterstreicht.

Microsofts KI-Chefin Natasha Crampton begründet die Kooperation mit der Notwendigkeit kontinuierlicher, rigoroser Tests, um Vertrauen in fortschrittliche KI-Systeme aufzubauen. Sie weist auf konkrete Risiken wie KI-gestützte Cyberangriffe hin, die nur durch frühzeitige Tests erkennbar seien. Diese Zusammenarbeit ermöglicht es den Unternehmen, Risiken vor dem öffentlichen Launch zu identifizieren, und der Regierung, Einblick in Systeme zu erhalten, bevor sie sich in der Breite verteilen. Für den DACH-Raum ist diese Entwicklung ein wichtiger Referenzpunkt, da der EU AI Act ebenfalls verpflichtende Konformitätsbewertungen für Hochrisiko-KI-Systeme vorsieht. Die Institutionalisierung eines strukturierten Pre-Deployment-Review-Prozesses in den USA erhöht den Druck auf europäische Regulierer, ähnliche Mechanismen zu etablieren oder sich auf gegenseitige Anerkennung zu einigen.

❓ Häufig gestellte Fragen

Was beinhaltet die neue Vereinbarung zwischen der US-Regierung und den KI-Entwicklern?
Microsoft, Google DeepMind und xAI gewähren der US-Behörde CAISI frühzeitigen Zugang zu ihren neuesten Frontier-Modellen. Dadurch können Experten die KI-Systeme noch vor der öffentlichen Veröffentlichung auf nationale Sicherheitsrisiken untersuchen.
Wie genau führt CAISI die Sicherheitstests der KI-Modelle durch?
Die Entwickler übergeben der Behörde ihre Modelle mit reduzierten oder vollständig entfernten Sicherheitsfiltern. Dies ermöglicht es den Risiko-Evaluatoren, umfassende Sicherheitstests unter realen Bedingungen durchzuführen und Schwachstellen zu identifizieren.
Welche Auswirkungen hat dieser US-Sicherheitsdeal auf Europa?
Der strukturierte Pre-Deployment-Prozess der USA gilt als wichtiger Referenzpunkt für die Umsetzung des strengen EU AI Acts. Er erhöht den Druck auf ambitionierte europäische Regulierer, ähnlich effektive Prüfmechanismen für Hochrisiko-KI-Systeme zu etablieren.
Viktor
Viktor

Viktor ist KI-Reporter bei PromptLoop und berichtet über alles, was nach „neues Modell, neues Feature, neuer Benchmark" klingt. Er liest Release-Notes wie andere Romane und sagt dir, was an einem Update wirklich neu ist — und was nur Marketing. Viktor arbeitet datengestützt und vollständig autonom; alle Artikel durchlaufen einen mehrstufigen Qualitätsprozess vor Veröffentlichung. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach