Pentagon schließt KI-Deals mit acht Tech-Konzernen für geheime Militärnetzwerke - Anthropic wegen Sicherheitsbedenken ausgeschlossen
Was wirklich drin steht
Das US-Verteidigungsministerium hat am 1. Mai 2026 Vereinbarungen mit acht Technologieunternehmen bekannt gegeben, um deren KI-Systeme in den geheimsten Militärnetzwerken einzusetzen. Die Unternehmen - Amazon Web Services, Google, Microsoft, OpenAI, SpaceX, NVIDIA, Reflection und Oracle - dürfen ihre KI-Modelle nun auf Netzwerken der Impact Level 6 (geheim) und Impact Level 7 (streng geheim) betreiben. Das Pentagon bezeichnete die Vereinbarungen als Schritt zur Transformation des US-Militärs in eine 'KI-gestützte Kampfkraft'. Die KI-Tools werden über die Plattform GenAI.mil bereitgestellt, die nach fünf Monaten bereits von 1,3 Millionen Angehörigen des Verteidigungsministeriums genutzt wird. Auffällig abwesend: Anthropic. Das Unternehmen wurde im Februar 2026 von Verteidigungsminister Pete Hegseth als 'Lieferkettenrisiko für die nationale Sicherheit' eingestuft - die erste derartige Einstufung, die je gegen ein amerikanisches Unternehmen verhängt wurde. Grund war Anthropics Weigerung, eine Klausel zu akzeptieren, die dem Pentagon die Nutzung seiner Claude-Modelle für 'jeden rechtmäßigen Zweck' erlaubt hätte - einschließlich vollautonomer Waffensysteme und Massenüberwachung im Inland. Anthropic hatte zwei rote Linien gezogen: keine Nutzung für Massenüberwachung amerikanischer Bürger und keine vollautonomen Waffen ohne menschliche Beteiligung. CEO Dario Amodei erklärte, Frontier-KI-Systeme seien 'schlicht nicht zuverlässig genug, um vollautonome Waffen anzutreiben'. Ein Bundesgericht erließ am 26. März eine einstweilige Verfügung zugunsten von Anthropic. Am 17. April trafen sich Trumps Stabschefin Susie Wiles und weitere Regierungsvertreter mit Amodei im Weißen Haus. Trump sagte anschließend gegenüber CNBC, ein Deal sei 'möglich'.
Unsere Einordnung
Diese Entwicklung verdient die Einstufung 'ernst zu nehmen'. Zum ersten Mal integriert das US-Militär acht kommerzielle KI-Systeme gleichzeitig in seine geheimsten Netzwerke - dort, wo Einsatzplanung, Geheimdienstanalyse und Zielerfassung stattfinden. Die Klausel 'jeder rechtmäßige Zweck' klingt zunächst harmlos, ist aber der Kern des Konflikts: Das Pentagon möchte maximale Flexibilität beim Einsatz von KI, ohne sich vorab auf Einschränkungen festzulegen. Die Tatsache, dass sieben Unternehmen diese Bedingungen akzeptierten, während Anthropic als einziges ablehnte und dafür bestraft wurde, sendet ein beunruhigendes Signal an die gesamte KI-Branche. Es entsteht ein Anreiz, Sicherheitsbedenken zugunsten von Regierungsaufträgen zurückzustellen. Gleichzeitig verdient Anthropics Haltung differenzierte Betrachtung: Das Unternehmen lehnt nicht jede militärische Nutzung ab - es hatte einen 200-Millionen-Dollar-Vertrag mit dem Pentagon und arbeitete über Palantirs Maven-Toolkit eng mit dem Militär zusammen. Es zog lediglich zwei spezifische rote Linien. Dass genau diese Linien zum Problem wurden, wirft Fragen über die tatsächlichen Einsatzabsichten auf. OpenAI benannte seine Militärpartnerschaft demonstrativ in 'Department of War'-Vereinbarung um - ein historischer Rückgriff, der die zunehmende Normalisierung militärischer KI-Nutzung unterstreicht.
Relevanz für Deutschland
Für Deutschland und Europa hochrelevant aus mehreren Gründen. Erstens: Als NATO-Partner ist Deutschland direkt von der US-Militärstrategie betroffen. Wenn die USA ihre Streitkräfte zur 'KI-gestützten Kampfkraft' umbauen, entsteht Druck auf Verbündete, ähnliche Schritte zu unternehmen - mit allen ethischen Fragen, die das aufwirft. Zweitens: Die Einstufung von Anthropic als Sicherheitsrisiko zeigt, wie schnell ein Unternehmen, das auf Sicherheitsstandards besteht, politisch isoliert werden kann. Ein SPD-Digitalexperte forderte bereits, Anthropic nach Europa zu holen - als Chance für mehr digitale Souveränität. Drittens: Der EU AI Act verbietet bestimmte KI-Anwendungen, darunter biometrische Massenüberwachung. Die Frage, ob europäische KI-Unternehmen unter ähnlichen politischen Druck geraten könnten, Sicherheitsstandards aufzuweichen, ist nicht theoretisch. Viertens: Die Bundeswehr nutzt zunehmend KI-Systeme. Die Frage, welche Guardrails für militärische KI gelten sollen, wird auch in Deutschland relevanter - besonders angesichts der aktuellen Aufrüstungsdebatte.
Faktencheck
Die Kernfakten - acht Unternehmen, Impact Level 6 und 7, GenAI.mil mit 1,3 Millionen Nutzern - werden übereinstimmend von Washington Post, TechCrunch, CNN, Breaking Defense und Nextgov berichtet. Die Einstufung von Anthropic als 'Lieferkettenrisiko' ist durch die offizielle Anweisung von Verteidigungsminister Hegseth und den Congressional Research Service (CRS-Bericht IN12669) dokumentiert. Die einstweilige Verfügung zugunsten von Anthropic vom 26. März ist gerichtlich aktenkundig. Das Treffen Amodei-Wiles am 17. April und Trumps Aussage gegenüber CNBC werden von mehreren unabhängigen Quellen bestätigt. Zunächst wurden sieben Unternehmen genannt; Oracle wurde wenige Stunden später hinzugefügt, was die Gesamtzahl auf acht erhöhte. Einschränkung: Die genauen Vertragsbedingungen und ob die anderen Unternehmen ebenfalls eine 'jeder rechtmäßige Zweck'-Klausel unterzeichnet haben, sind nicht öffentlich einsehbar.
Quelle
- • Washington Post 01.05.2026 (washingtonpost.com/technology/2026/05/01/pentagon-ai-deals-microsoft-amazon-google-classified-military/)
- • TechCrunch 01.05.2026 (techcrunch.com/2026/05/01/pentagon-inks-deals-with-nvidia-microsoft-and-aws-to-deploy-ai-on-classified-networks/)
- • CNN Business 01.05.2026 (cnn.com/2026/05/01/tech/pentagon-ai-anthropic)
- • Breaking Defense 01.05.2026 (breakingdefense.com/2026/05/pentagon-clears-7-tech-firms-to-deploy-their-ai-on-its-classified-networks/)
- • Nextgov/FCW 01.05.2026 (nextgov.com/artificial-intelligence/2026/05/pentagon-makes-agreements-7-companies-add-ai-classified-networks/413264/)
- • Congress Research Service IN12669 (congress.gov/crs-product/IN12669)