US-Berufungsgericht laesst Pentagon-Blacklist gegen Anthropic bestehen - KI-Firma weigerte sich, Schutzleitplanken fuer Ueberwachung und autonome Waffen zu entfernen
Was wirklich drin steht
Ein Dreirichter-Panel des U.S. Court of Appeals for the D.C. Circuit (Richterinnen Karen LeCraft Henderson, Gregory G. Katsas und Neomi Rao) hat am 8. April 2026 Anthropics Eilantrag abgelehnt, die Pentagon-Blacklist waehrend des laufenden Verfahrens auszusetzen. Hintergrund: Verteidigungsminister Pete Hegseth hatte Anthropic im Februar 2026 als 'Supply-Chain Risk' eingestuft - eine Bezeichnung, die bislang auslaendischen Gegnern vorbehalten war -, nachdem das Unternehmen sich geweigert hatte, zwei Nutzungsbeschraenkungen fuer Claude zu streichen: erstens das Verbot, Claude fuer massenhafte Inlandueberwachung US-amerikanischer Buerger einzusetzen, und zweitens das Verbot, Claude in vollautonome Waffensysteme ohne menschliche Kontrolle zu integrieren. Das Pentagon hatte stattdessen eine Klausel fuer 'any lawful use' verlangt. Das Gericht begruendete: 'The equitable balance here cuts in favor of the government. On one side is a relatively contained risk of financial harm to a single private company. On the other side is judicial management of how, and through whom, the Department of War secures vital AI technology during an active military conflict.' Gleichzeitig raeumt das Gericht ein, Anthropic werde 'likely suffer some degree of irreparable harm'. Muendliche Verhandlungen wurden beschleunigt auf den 19. Mai 2026 angesetzt. Wichtig: Ein kalifornisches Bundesgericht war am 26. Maerz zum gegenteiligen Ergebnis gekommen und hatte die Blacklist als wahrscheinliche Vergeltung fuer Anthropics Meinungsaeusserungen zur KI-Sicherheit gewertet - ein Verstoss gegen das First Amendment. Es gibt damit aktuell widerspruechliche Gerichtsurteile: Anthropic ist von Pentagon-Vertraegen ausgeschlossen, darf aber mit anderen Bundesbehoerden weiter zusammenarbeiten.
Unsere Einordnung
Dieser Fall ist ein Praezedenzfall dafuer, ob Regierungen KI-Unternehmen zwingen koennen, Sicherheitsschranken zu entfernen - oder ob solche Schranken als schuetzenswerte Meinungsaeusserung gelten. Beide Seiten haben legitime Argumente: Das Pentagon benoetigt leistungsfaehige KI fuer die nationale Sicherheit und will nicht, dass Anbieter bestimmen, wofuer Regierungstechnologie genutzt wird. Anthropic argumentiert, dass heutige KI-Modelle nicht zuverlaessig genug fuer autonome Waffen seien und Massenueberwachung Grundrechte verletze. Die Einordnung als 'Supply-Chain Risk' - eine Kategorie, die zuvor nur gegen China und Russland eingesetzt wurde - gegen ein US-Unternehmen ist beispiellos und wird von ACLU und CDT als staatliche Vergeltung fuer unliebsame Aeusserungen gewertet. Die widerspruechlichen Gerichtsurteile (DC Circuit vs. Kalifornien) machen eine hoeherinstanzliche Klaerung wahrscheinlich. Der Fall zeigt: Die Frage, wer die Grenzen von KI-Einsatz definiert - Unternehmen, Gerichte oder Regierungen -, ist nicht akademisch, sondern wird jetzt vor Gericht ausgefochten.
Relevanz für Deutschland
Fuer Deutschland und die EU ist der Fall dreifach relevant. Erstens: Die EU hat mit dem AI Act gerade erst ein eigenes Regelwerk fuer KI-Einsatz geschaffen, das bestimmte Anwendungen verbietet - darunter 'Social Scoring' und biometrische Echtzeit-Identifizierung in oeffentlichen Raeumen. Wenn die US-Regierung gleichzeitig KI-Firmen unter Druck setzt, Schutzschranken zu entfernen, entsteht ein transatlantischer Widerspruch: Europaeische Unternehmen, die Claude einsetzen, muessen den AI Act befolgen, waehrend das gleiche Produkt in den USA fuer Ueberwachung freigegeben werden soll. Zweitens: Der Fall bestaetigt indirekt die Logik des AI Act - gesetzliche Leitplanken sind noetig, weil freiwillige Unternehmenspolitik unter politischem Druck zusammenbrechen kann. Drittens: Deutsche Unternehmen, die Claude ueber AWS oder direkt ueber Anthropic nutzen, sollten die Entwicklung beobachten: Eine Ausweitung der Blacklist auf alle US-Regierungsvertraege koennte Anthropics Geschaeftsmodell und damit die Zuverlaessigkeit als Anbieter fuer europaeische Kunden beeinflussen.
Faktencheck
Die Kernfakten - Ablehnung des Stay-Antrags durch ein Dreirichter-Panel des D.C. Circuit am 8. April 2026, die namentlich genannten Richter, das woertliche Zitat zur 'equitable balance', die beschleunigten muendlichen Verhandlungen am 19. Mai 2026 sowie die widerspruechliche Entscheidung des kalifornischen Gerichts vom 26. Maerz - werden uebereinstimmend von CNBC, Axios, Reuters, Bloomberg und der juristischen Fachpresse (JDSupra, Law.com) berichtet. Anthropics 'Red Lines' - Verbot von Massenueberwachung und vollautonomen Waffen - sind aus Anthropics eigener Klagebegruendung und Nutzungsrichtlinien dokumentiert. Die Einstufung als 'Supply-Chain Risk' (FASCSA-Designation) ist oeffentlich im Federal Register nachvollziehbar. Die Formulierung des Pentagons 'any lawful use' wird von CNBC und NPR zitiert. Anthropic ist das erste US-Unternehmen, das jemals als Supply-Chain Risk eingestuft wurde; diese Angabe wird von CNBC und Law.com bestaetigt.
Quelle
- • CNBC 08.04.2026 (Erstberichterstattung Urteil)
- • Axios 08.04.2026
- • Reuters 09.04.2026
- • Bloomberg 08.04.2026
- • CCIA Stellungnahme 09.04.2026
- • JDSupra / Kilpatrick 09.04.2026 (juristische Einordnung FASCSA-Designation)
- • CNBC 26.03.2026 (kalifornisches Urteil zu First Amendment)
- • ACLU / CDT Amicus-Brief (aclu.org)