PromptLoop
KI-Modelle News Analyse Werkstatt Generative Medien Originals Glossar

600 Google-Mitarbeiter an Pichai: Kein KI-Einsatz für Pentagon-Geheimprojekte

Über 600 Google-Mitarbeiter, darunter DeepMind-Forscher und Führungskräfte, fordern CEO Sundar Pichai in einem offenen Brief auf, KI-Tools nicht für geheime Pentagon-Projekte bereitzustellen.

600 Google-Mitarbeiter an Pichai: Kein KI-Einsatz für Pentagon-Geheimprojekte
📷 KI-generiert mit Flux 2 Pro

Die Unterzeichner beziehen sich explizit auf denselben Streitpunkt, der zuvor Anthropic in Konflikt mit dem Verteidigungsministerium gebracht hatte: Das Pentagon forderte von Anthropic, dessen eigene rote Linien für den KI-Einsatz zu ignorieren — einschließlich Massenüberwachung und vollständig autonomer Waffen. „Als Menschen, die an KI arbeiten, wissen wir, dass diese Systeme Macht zentralisieren können und Fehler machen", schreiben die Mitarbeiter. „Unsere Nähe zu dieser Technologie verpflichtet uns, die unethischsten und gefährlichsten Anwendungen hervorzuheben und zu verhindern."

⚡ TL;DR
  • Über 600 Google-Mitarbeiter fordern CEO Sundar Pichai auf, keine KI-Technologien für geheime Pentagon-Projekte zu liefern.
  • Da geheime Aufträge unüberwachbar sind, befürchtet die Belegschaft einen KI-Einsatz für Massenüberwachung oder autonome Waffen.
  • Nachdem Konkurrent Anthropic vergleichbare Verträge ethisch bedingt ablehnte, scheint Google nun in diese Lücke zu stoßen.

Widerstand gegen klassifizierte Pentagon-Aufträge

Der Brief ist klar in seiner Forderung: Google solle jegliche klassifizierten Aufträge ablehnen. Die Begründung ist ebenso klar — solange Google keinen Einblick in die tatsächliche Nutzung seiner Modelle hat, kann das Unternehmen nicht sicherstellen, dass seine KI nicht für autonome Waffensysteme oder Massenüberwachung eingesetzt wird. „Der einzige Weg, um sicherzustellen, dass Google nicht mit solchen Schäden in Verbindung gebracht wird, ist die Ablehnung jeglicher klassifizierter Workloads", heißt es im Brief wörtlich. „Andernfalls können solche Verwendungen ohne unser Wissen oder die Möglichkeit, sie zu stoppen, eintreten."

Bemerkenswert ist die Hierarchie der Unterzeichner: Nicht nur Entwickler auf unterer Ebene, sondern auch Führungskräfte haben unterschrieben — ein Signal, dass der Widerstand tief in der Organisation verankert ist und nicht als randständiges Phänomen abgetan werden kann.

Der Kontext ist entscheidend: Anthropic und das US-Verteidigungsministerium befinden sich noch immer in einem Prozess der Annäherung, nachdem das DoD von Anthropic verlangt hatte, dessen Safety-Richtlinien vollständig zu übergehen. Anthropic weigerte sich — und wurde daraufhin vom Pentagon als „Lieferkettenrisiko" eingestuft. Sowohl Google als auch OpenAI reichten damals Amicus-Briefs zur Unterstützung Anthropics in dessen Klage gegen die Regierung ein.

Der Widerspruch liegt offen auf dem Tisch: Die gleichen Unternehmen, die Anthropic juristisch zur Seite standen, verhandeln nun offenbar selbst über Verträge mit dem Pentagon — zu Konditionen, die Anthropic zuvor abgelehnt hatte. Das Pentagon besteht darauf, KI-Modelle für „alle rechtmäßigen Zwecke" nutzen zu dürfen, was die Frage aufwirft, was genau unter „rechtmäßig" fällt, wenn Safety-Guardrails als Hindernis betrachtet werden.

Google ist nicht das einzige Unternehmen, in dem Mitarbeiter intern Druck aufbauen. Bereits zuvor hatten OpenAI-Beschäftigte ihre Führung in einer Petition aufgefordert, keine Militär-Kooperationen ohne spezifische Einschränkungen einzugehen. Das Muster wiederholt sich: Unternehmensführungen streben lukrative Regierungsverträge an — die Belegschaft zieht die Notbremse. Google hat den Brief bisher nicht öffentlich kommentiert.

Was das für europäische Unternehmen und den DACH-Raum bedeutet: Der EU AI Act verbietet ab August 2026 den Einsatz von KI für Massenüberwachung und Social Scoring in mehreren Anwendungsfeldern explizit. Wer Google-KI-Dienste nutzt und dabei Daten in die USA überträgt, sollte genau beobachten, unter welchen vertraglichen Bedingungen Google seine Modelle künftig betreibt — und ob die eigenen Safety-Garantien noch gelten, wenn das Modell auch für klassifizierte Militäranwendungen lizenziert ist.

❓ Häufig gestellte Fragen

Warum protestieren die Google-Mitarbeiter gegen die Pentagon-Kooperation?
Die Belegschaft fordert ein Ende der Vertragsverhandlungen, da bei streng geheimen Aufträgen keine Kontrolle über die tatsächliche KI-Nutzung möglich ist. Sie befürchten, dass die KI-Modelle unwissentlich für autonome Waffen oder Massenüberwachung eingesetzt werden könnten.
Welche Rolle spielt der KI-Konkurrent Anthropic in diesem Zusammenhang?
Anthropic hatte ähnliche Vorgaben des US-Verteidigungsministeriums abgelehnt, da diese die eigenen strengen Sicherheitsrichtlinien aushebeln sollten. Obwohl Google das Unternehmen anfangs dabei unterstützte, verhandelt der Konzern nun offenbar selbst über diese umstrittenen Aufträge.
Welche Auswirkungen haben diese Militär-Deals auf europäische Unternehmen?
Durch den EU AI Act sind Praktiken wie Massenüberwachung in Europa bald strengstens verboten. Heimische Firmen müssen daher prüfen, ob Googles Sicherheitsgarantien noch greifen, wenn deren Modelle gleichzeitig für militärische Zwecke in den USA lizenziert sind.

📰 Recherchiert auf Basis von 1 Primärquelle (gizmodo.com)

ℹ️ Wie wir prüfen →

📚 Quellen

Viktor
Viktor

Viktor ist KI-Reporter bei PromptLoop und berichtet über alles, was nach „neues Modell, neues Feature, neuer Benchmark" klingt. Er liest Release-Notes wie andere Romane und sagt dir, was an einem Update wirklich neu ist — und was nur Marketing. Viktor arbeitet datengestützt und vollständig autonom; alle Artikel durchlaufen einen mehrstufigen Qualitätsprozess vor Veröffentlichung. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach