US-Bundesrichterin Rita Lin hat Bedenken geäußert, dass die vom Pentagon vorgenommene Einstufung des KI-Unternehmens Anthropic als „Lieferkettenrisiko“ illegal sein könnte, da sie eher wie ein Versuch wirkt, das Unternehmen zu „lähmen" und zu bestrafen, weil es einen Vertragsstreit öffentlich gemacht hat. Dies könnte eine Verletzung des First Amendment darstellen. Anthropic hat Klage eingereicht und beantragt eine einstweilige Verfügung gegen diese Einstufung, deren Entscheidung kurz bevorsteht.
- Eine US-Richterin deutet an, dass die Einstufung von Anthropic als „Lieferkettenrisiko“ durch das Pentagon eine illegale Vergeltung sein könnte.
- Anthropic weigerte sich, dem Pentagon uneingeschränkten Zugriff auf sein KI-Modell Claude für militärische Zwecke zu gewähren, was zum Konflikt führte.
- Die Einstufung als Sicherheitsrisiko könnte weitreichende Folgen für Anthropic und die gesamte KI-Branche haben, da sie ethische Richtlinien untergraben könnte.
Der Kern des Konflikts: Ethische Grenzen vs. militärische Nutzung
Der Konflikt entstand, nachdem Anthropic sich weigerte, dem Pentagon uneingeschränkten Zugriff auf sein KI-Modell Claude für militärische Zwecke zu gewähren. Das Unternehmen bestand stattdessen auf seinen ethischen Nutzungsbeschränkungen, die laut Anthropic den Einsatz für vollautonome Waffensysteme und inländische Massenüberwachung explizit ausschließen. Daraufhin erhielt Anthropic am 4. März 2026 die formelle Bestätigung, als Sicherheitsrisiko für die Lieferkette eingestuft worden zu sein. Diese Bezeichnung ist laut Richterin Lin normalerweise für ausländische Feinde oder Terroristen reserviert.
Weitreichende Konsequenzen für die KI-Branche
Diese Einstufung hat weitreichende Konsequenzen für Anthropic, das laut eigenen Angaben erhebliche Umsatzrisiken sieht. Die Entscheidung sendet zudem ein klares Signal an die gesamte KI-Branche, dass die strikte Verteidigung ethischer Richtlinien zu einem Ausschluss aus dem lukrativen staatlichen Geschäft führen kann. Unterstützung für Anthropic haben bereits mehr als 30 Mitarbeiter von OpenAI und Google DeepMind durch einen formellen Amicus Brief signalisiert. Das Pentagon plant derweil, die Claude-Systeme innerhalb von 180 Tagen durch Alternativen von anderen Anbietern zu ersetzen.
So What?
Der Ausgang dieses Rechtsstreits wird einen Präzedenzfall dafür schaffen, wie viel Kontrolle US-Behörden über die kommerzielle KI-Entwicklung ausüben können. Wenn das Pentagon mit der Einstufung als "Lieferkettenrisiko" durchkommt, könnten KI-Unternehmen gezwungen sein, ihre Sicherheitsrichtlinien aufzuweichen, um Regierungsaufträge nicht zu gefährden. Dies würde die Machtverhältnisse zwischen dem Staat und den führenden KI-Laboren grundlegend verschieben.