Anthropic kann Claude nicht aus der Ferne abschalten, sobald das US-Militär das Modell in seine Systeme integriert hat. Das steht schwarz auf weiß in einer eidesstattlichen Erklärung von Thiyagu Ramasamy, Anthropics Leiter des Public-Sector-Bereichs, eingereicht am 20. März 2026 bei einem Bundesgericht in San Francisco. „Anthropic has never had the ability to cause Claude to stop working, alter its functionality, shut off access, or otherwise influence or imperil military operations“, schrieb Ramasamy — und widersprach damit direkt dem Kern des Pentagon-Vorwurfs, der zur Einstufung von Anthropic als Lieferkettenrisiko durch Verteidigungsminister Pete Hegseth geführt hatte.
- Anthropic bestreitet durch eine eidesstattliche Erklärung die Existenz eines "Kill-Switchs" für sein KI-Modell Claude, was direkt den Sabotage-Vorwürfen des Pentagons widerspricht.
- Der Konflikt eskaliert nach einem Ultimatum des Verteidigungsministers bezüglich der Nutzung von Claude durch das Militär, woraufhin Anthropic als Lieferkettenrisiko eingestuft wurde.
- Trotz der Kontroverse ist Claude bereits tief in kritischen Militärprozessen des Pentagons integriert, was ein erhebliches Dilemma für das US-Verteidigungsministerium darstellt.
Dieser Konflikt ist kein technisches Missverständnis. Er ist eine Machtprobe darüber, wer im Ernstfall die Kontrolle über KI-Systeme behält — der privatwirtschaftliche Entwickler oder der Nationalstaat. Das Ergebnis dieser Auseinandersetzung wird nicht nur Anthropics Geschäftsmodell prägen, sondern einen Präzedenzfall schaffen, der die gesamte Branche betrifft — von OpenAI bis zu europäischen Anbietern wie SAP.
Die Chronologie einer eskalierten Machtprobe
Der Konflikt begann nicht mit einem Gerichtsverfahren, sondern mit einem Ultimatum. Am 24. Februar 2026 stellte Verteidigungsminister Pete Hegseth Anthropic-CEO Dario Amodei ein Dreitages-Ultimatum: Bis zum 27. Februar sollte das Unternehmen einer bedingungslosen Nutzung von Claude für alle rechtmäßigen militärischen Einsätze zustimmen — andernfalls würde der Vertrag gekündigt und möglicherweise der Defence Production Act (DPA) angewandt, der Unternehmen zur Kooperation mit nationalen Sicherheitsinteressen zwingen kann.
Amodei lehnte ab. Öffentlich erklärte er, das Unternehmen könne „mit gutem Gewissen“ bestimmten Nutzungsszenarien nicht zustimmen — konkret: der Nutzung von Claude für inländische Massenüberwachung und vollständig autonome Waffensysteme ohne menschliche Aufsicht. Hegseth reagierte am 27. Februar 2026 mit der Einstufung von Anthropic als Lieferkettenrisiko, eine Kategorie, die typischerweise für ausländische Zulieferer mit Sicherheitsbedenken verwendet wird — nicht für amerikanische KI-Labore. Das Verbot erfasst nicht nur direkte Pentagon-Verträge, sondern auch die Zusammenarbeit über Subunternehmer wie Palantir und Amazon Web Services.
Was die Situation besonders brisant macht: Claude ist laut WIRED-Recherchen bereits tief in kritische Militärprozesse integriert. Das Modell wird für Truppenplanung, Nachschublogistik und die Analyse von Zieldaten verwendet — einschließlich, nach Informationen von WIRED, der Vorbereitung von Luftangriffen im aktuellen Iran-Konflikt 2026. Das Pentagon steht damit vor einem selbst verursachten Dilemma: Ein System, das es als unverzichtbar betrachtet, hat es gerade offiziell zum Risiko erklärt.
Die technische Realität hinter dem Kill-Switch-Vorwurf
Das Pentagon argumentiert, Anthropic könnte aktive Militäroperationen sabotieren, indem es Claude abschaltet oder schädliche Updates einspielt, wenn dem Unternehmen die Art der Nutzung missfällt. Ramasamys Gerichtsaussage vom 20. März 2026 ist eine direkte Widerlegung dieser These — und sie ist technisch nachvollziehbar, wenn man versteht, wie Enterprise-KI-Deployments in sicheren Regierungsumgebungen funktionieren.
In der Praxis laufen Modelle wie Claude im Regierungseinsatz nicht über die Consumer-APIs von Anthropic. Sie werden in isolierten Cloud-Umgebungen betrieben, in diesem Fall über Amazon Web Services. Ramasamy stellte in seiner Erklärung klar:
- Anthropic kann nicht auf die Prompts oder Daten zugreifen, die Militärnutzer in Claude eingeben.
- Updates können nur mit ausdrücklicher Genehmigung der Regierung und des Cloud-Anbieters eingespielt werden.
- Anthropic-Mitarbeiter haben keinen Zugang zu den DoD-Systemen, um Modelle zu modifizieren oder zu deaktivieren.
- Es existiert keine Backdoor und kein Remote-Kill-Switch.
Das Pentagon seinerseits hat in eigenen Gerichtseinreichungen erklärt, „zusätzliche Maßnahmen“ zu ergreifen, um sicherzustellen, dass „Anthropic-Führungskräfte keine einseitigen Änderungen“ an den bereits laufenden Claude-Systemen vornehmen können. Das ist eine implizite Bestätigung: Wenn man Maßnahmen ergreift, um einseitige Änderungen zu verhindern, gesteht man ein, dass man zuvor keine solchen Sicherungen hatte — und dass die Bedrohung damit in der eigenen Vertragskonstruktion lag, nicht in einer technischen Backdoor von Anthropic.
Ethische Grenzen als Geschäftsrisiko: Die strukturelle Spannung
Anthropics Kernproblem ist kein juristisches, sondern ein strategisches: Das Unternehmen hat seinen Markenwert auf „Responsible AI“ aufgebaut — Sicherheit, Interpretierbarkeit und ethische Leitplanken sind das zentrale Differenzierungsmerkmal gegenüber OpenAI und Google DeepMind. Diese Positionierung ist nun direkt in Konflikt mit der Forderung des größten potenziellen Einzelkunden der Welt geraten.
Die Parallelen zur Google-Maven-Krise von 2018 sind unübersehbar: Damals zogen sich Tausende Google-Mitarbeiter nach internen Protesten aus einem Pentagon-Drohnenprojekt zurück, Google verzichtete auf die Vertragsverlängerung — und revidierte im Februar 2025 still und leise seine KI-Grundsätze, um Verteidigungsanwendungen explizit zu erlauben. Anthropic und OpenAI fürchten laut Branchenbeobachtern, dass eine vollständige Militarisierung ihrer Modelle zu einer Abwanderung von Spitzenforschern führt, für die ethische Standards ein zentrales Karrieremotiv darstellen.
Anthropics Policy-Chefin Sarah Heck legte in ihrer eigenen Gerichtsaussage vom 20. März 2026 offen, wie nah die Verhandlungen an eine Einigung herangekommen waren: Das Unternehmen war bereit, explizit auf jedes Vetorecht über operative Militärentscheidungen zu verzichten und hatte Vertragssprache akzeptiert, die Bedenken über den Einsatz von Claude bei tödlichen Angriffen ohne menschliche Aufsicht adressierte. Die Verhandlungen scheiterten trotzdem. Woran genau — das bleibt aus den vorliegenden Gerichtsdokumenten unklar.
Marktkonsequenzen: Kunden kündigen, Konkurrenten profitieren
Die unmittelbaren Geschäftsauswirkungen sind erheblich. Anthropic hatte in seiner Klage selbst erklärt, das Unternehmen sei durch die Lieferkettenrisiko-Einstufung wirtschaftlich „in Gefahr“. Kunden haben bereits begonnen, Verträge zu kündigen — auch außerhalb des direkten Verteidigungsbereichs, da die Einstufung ein Reputationssignal aussendet, das über das Pentagon weit hinausreicht. Andere Bundesbehörden distanzieren sich ebenfalls von Claude.
Wer davon profitiert, liegt auf der Hand: Palantir, das auf der jüngsten Entwicklerkonferenz eine explizit militarisierte KI-Vision präsentierte und dessen CEO Alex Karp die Zusammenarbeit mit dem Militär als Kernauftrag definiert, steht als natürlicher Gewinner da. Auch Microsoft und sein OpenAI-Investment sind gut positioniert — OpenAI hat seine eigenen Nutzungsbeschränkungen für militärische Anwendungen in den vergangenen Monaten deutlich gelockert. Für Anthropic hingegen droht ein dauerhafter Ausschluss aus dem milliardenschweren Segment der nationalen Sicherheitsanwendungen, sofern die laufenden Klagen scheitern. Eine Anhörung in einem der beiden Verfahren ist für den 24. März 2026 vor dem Bundesbezirksgericht in San Francisco angesetzt.
So What? Präzedenzfall für die gesamte Branche
Dieser Rechtsstreit ist mehr als ein bilateraler Vertragskonflikt zwischen einem KI-Labor und dem US-Verteidigungsministerium. Er definiert gerade die Spielregeln neu, nach denen Tech-Unternehmen KI an staatliche Akteure liefern dürfen — und unter welchen Bedingungen ethische Selbstverpflichtungen durchsetzbar sind. Wenn Anthropic verliert, ist das Signal an die gesamte Branche eindeutig: Wer Regierungsaufträge will, muss bedingungslos liefern. Ethische Nutzungsrichtlinien werden dann zu einer rein internen PR-Maßnahme ohne vertragliche Substanz.
Für europäische Entscheider hat das unmittelbare Relevanz. Der EU AI Act klassifiziert KI-Systeme in militärischen Kontexten explizit als hochriskant und verlangt Transparenz- und Aufsichtsmechanismen. Amerikanische Anbieter, die unter dem Druck des Pentagon ihre ethischen Leitplanken aufweichen, könnten damit strukturell in Konflikt mit europäischen Compliance-Anforderungen geraten. Das eröffnet europäischen Anbietern eine Nische — setzt aber voraus, dass diese Nische aktiv besetzt wird, bevor amerikanische Anbieter die neue Norm gesetzt haben.
❓ Häufig gestellte Fragen
📚 Quellen
- TechCrunch: New court filing reveals Pentagon told Anthropic the two sides were nearly aligned (20.03.2026)
- WIRED: Anthropic Denies It Could Sabotage AI Tools During War (20.03.2026)
- Anthropic: Statement on the comments from Secretary of War Pete Hegseth (27.02.2026)
- CourtListener: Anthropic PBC v. U.S. Department of War, 3:26-cv-01996 (März 2026)