Google gibt Pentagon Zugriff auf Gemini-KI fuer 'jeden rechtmaessigen Zweck' - ueber 580 Mitarbeiter protestieren
Was wirklich drin steht
Google hat Ende April 2026 einen geheimen KI-Vertrag mit dem US-Verteidigungsministerium unterzeichnet. Die Vereinbarung erlaubt dem Pentagon, Googles Gemini-KI-Modelle in klassifizierten Netzwerken fuer 'jeden rechtmaessigen staatlichen Zweck' einzusetzen. Der Vertrag ist als Ergaenzung eines bestehenden Vertrags strukturiert und aehnelt klassifizierten KI-Vereinbarungen, die das Pentagon bereits mit OpenAI und Elon Musks xAI geschlossen hat. Die Reaktion innerhalb von Google war schnell und deutlich: Mehr als 580 Mitarbeiter - darunter Forscher von DeepMind sowie ueber 20 Directors, Senior Directors und Vice Presidents - unterzeichneten einen offenen Brief an CEO Sundar Pichai. Sie fordern Google auf, die klassifizierte militaerische KI-Arbeit abzulehnen. In ihrem Brief warnen die Mitarbeiter vor Risiken durch letale autonome Waffensysteme, Massenueberwachung und der Tatsache, dass die klassifizierte Natur der Arbeit jede unabhaengige Aufsicht verhindert. Im Vergleich zu 2018, als rund 4.000 Google-Mitarbeiter gegen Project Maven (ein Pentagon-Programm zur KI-gestuetzten Drohnenbildanalyse) protestierten und mindestens 12 kuendigten, zeigt sich ein veraendertes Kraefteverhaeltnis: Damals reichten die Proteste, um Google zum Rueckzug zu bewegen. Heute steht dem eine milliardenschwere klassifizierte KI-Industrie gegenueber, ein Pentagon, das gezeigt hat, dass es Konsequenzen fuer ablehnende Unternehmen ziehen kann, und ein Google, das seine eigenen roten Linien bereits verschoben hat.
Unsere Einordnung
Die Sorge ist teilweise berechtigt, erfordert aber Differenzierung. Zunaechst die berechtigten Bedenken: Die Formulierung 'jeder rechtmaessige Zweck' in einem klassifizierten Kontext ist problematisch, weil sie de facto eine Blankovollmacht darstellt - niemand ausserhalb des Militaers kann pruefen, wofuer die KI tatsaechlich eingesetzt wird. Dass DeepMind-Forscher protestieren, zeigt, dass die Bedenken nicht von Aussenseitern kommen, sondern von den Menschen, die diese Technologie am besten verstehen. Die Verschiebung seit 2018 ist real und besorgniserregend: Der Marktdruck hat die ethischen Grundsaetze der Tech-Konzerne aufgeweicht. Allerdings ist es wichtig zu differenzieren: Nicht jeder militaerische KI-Einsatz ist automatisch unethisch. KI in der Logistik, bei der Cyberabwehr oder in der Katastrophenhilfe kann Leben retten. Das Problem liegt in der fehlenden Transparenz: Ohne Aufsicht ist unklar, ob die gleiche KI auch in Zielerfassungssystemen oder Ueberwachungsprogrammen landet. Der Vorfall zeigt ein systemisches Problem: In einem Markt, in dem OpenAI, Google, Microsoft und xAI alle um Pentagon-Vertraege konkurrieren, wird 'Nein sagen' zum Wettbewerbsnachteil.
Relevanz für Deutschland
Fuer Deutschland und Europa hoch relevant. Die EU hat sich klar gegen letale autonome Waffensysteme positioniert und fordert internationale Regulierung. Deutschland hat sich im Rahmen der CCW (Convention on Certain Conventional Weapons) fuer verbindliche Regeln zu autonomen Waffen ausgesprochen. Wenn US-Tech-Konzerne, deren KI-Modelle auch in Europa breit eingesetzt werden, diese Modelle gleichzeitig fuer klassifizierte Militaerzwecke bereitstellen, wirft das grundsaetzliche Fragen auf: Koennen europaeische Unternehmen und Behoerden KI-Modelle vertrauensvoll nutzen, die gleichzeitig in Waffensystemen eingesetzt werden koennten? Der EU AI Act verbietet bestimmte KI-Praktiken wie Social Scoring und Massengesichtserkennung - aber er gilt nur fuer den europaeischen Markt. Was mit denselben Modellen ausserhalb der EU geschieht, entzieht sich europaeischer Kontrolle. Der Fall unterstreicht das Argument fuer europaeische KI-Souveraenitaet und Open-Source-Alternativen.
Faktencheck
Der Vorfall ist durch mehrere unabhaengige Quellen gut dokumentiert. Fortune berichtet am 4. Mai ueber den breiteren Kontext und den Vergleich zu Project Maven. The Next Web bestaetigt die Zahl von 580+ Unterzeichnern inklusive DeepMind-Forscher und 20+ Directors/VPs. Die Vertragsbedingungen ('any lawful governmental purpose') werden von Fortune und SiliconANGLE uebereinstimmend berichtet. Der Vergleich zu Project Maven 2018 (4.000 Unterschriften, 12 Kuendigungen) stammt aus der Fortune-Analyse. Dass aehnliche Vertraege mit OpenAI und xAI bestehen, wird von Fortune erwaehnt. Die Washington Post berichtete am 27. April ueber den offenen Brief.
Quelle
- • Fortune 04.05.2026 (fortune.com/2026/05/04/google-employee-backlash-pentagon-ai-contract-power-waned-since-project-maven/)
- • The Next Web 28.04.2026 (thenextweb.com/news/google-employees-classified-military-ai-pentagon)
- • SiliconANGLE 27.04.2026 (siliconangle.com/2026/04/27/hundreds-google-employees-sign-letter-urging-ceo-reject-us-military-ai-use/)
- • Euronews 28.04.2026 (euronews.com/next/2026/04/28/google-employees-urge-ceo-to-reject-inhumane-classified-military-ai-use)
- • Android Headlines 28.04.2026 (androidheadlines.com/2026/04/google-pentagon-classified-ai-military-deal-protests.html)