KI
KIneAngst
Alle News
🔴 Ernst zu nehmen

Erstmals belegt: Hacker nutzten KI, um einen Zero-Day-Exploit zu entwickeln - Google verhinderte Massenangriff

Was wirklich drin steht

Googles Threat Intelligence Group (GTIG) hat am 11. Mai 2026 den ersten dokumentierten Fall veröffentlicht, in dem eine Hackergruppe nachweislich ein KI-Modell einsetzte, um eine bislang unbekannte Sicherheitslücke (Zero-Day) zu entdecken und zu einem funktionsfähigen Exploit auszubauen. Die Schwachstelle befand sich in einem weit verbreiteten, quelloffenen Systemadministrations-Tool und ermöglichte die Umgehung der Zwei-Faktor-Authentifizierung (2FA). Die Lücke basierte auf einem semantischen Logikfehler: Eine hartcodierte Vertrauensannahme im Authentifizierungsablauf erlaubte es, den zweiten Faktor komplett zu umgehen - vorausgesetzt, der Angreifer verfügte bereits über gültige Zugangsdaten. GTIG hat nach eigener Aussage 'hohes Vertrauen', dass der Exploit-Code von einem KI-Modell stammt. Die Hinweise: Das Python-Skript enthielt übermäßig erklärende Docstrings, einen halluzinierten CVSS-Schweregrad-Score, detaillierte Hilfe-Menüs und eine strukturierte, lehrbuchhafte Formatierung, die typisch für von großen Sprachmodellen generierte Texte ist. Google betont, dass nicht sein eigenes Modell Gemini verwendet wurde, sondern ein anderes KI-System. Die Hackergruppe plante offenbar eine Massenausnutzung der Schwachstelle. Google konnte den Angriff verhindern, indem es gemeinsam mit dem betroffenen Hersteller die Lücke still patchen ließ, bevor die Kampagne Fahrt aufnehmen konnte. John Hultquist, Chefanalyst bei GTIG, warnte: 'Für jeden Zero-Day, den wir auf KI zurückführen können, gibt es wahrscheinlich viele weitere.' Im selben Bericht dokumentiert GTIG weitere Fälle: Die nordkoreanische Hackergruppe APT45 nutzte KI, um systematisch Tausende von Exploit-Prüfungen durchzuführen und ihr Arsenal zu erweitern. Chinesische staatlich unterstützte Akteure experimentierten mit KI-Systemen zur automatisierten Schwachstellensuche.

Unsere Einordnung

Dies ist ein Wendepunkt in der Cybersicherheit. Bisher war die Nutzung von KI durch Hacker weitgehend auf Phishing-Texte, Social Engineering und die Beschleunigung bekannter Angriffstechniken beschränkt. Dass nun erstmals nachgewiesen wurde, dass eine Hackergruppe KI zur Entwicklung eines funktionsfähigen Zero-Day-Exploits einsetzte, verschiebt das Bedrohungsbild erheblich. Besonders beunruhigend: Der Exploit nutzte eine semantische Logiklücke - genau die Art von subtilen Schwachstellen, die menschliche Sicherheitsforscher oft übersehen, aber große Sprachmodelle mit ihrer Fähigkeit zur Codeanalyse in großem Maßstab erkennen können. Die gute Nachricht: Google konnte den Angriff verhindern, bevor er Schaden anrichtete. Das zeigt, dass KI nicht nur Angreifern, sondern auch Verteidigern hilft. Das Problem ist die Asymmetrie: Verteidiger müssen alle Lücken schließen, Angreifer müssen nur eine finden - und KI macht das Finden dramatisch schneller. Hultquists Warnung, dass es wahrscheinlich viele unentdeckte KI-generierte Exploits gibt, ist keine Panikmache, sondern logische Schlussfolgerung. Für Endnutzer bedeutet dies: Zwei-Faktor-Authentifizierung bleibt wichtig, ist aber kein Allheilmittel mehr. Die Sicherheitsbranche muss sich darauf einstellen, dass die Geschwindigkeit der Schwachstellenentdeckung durch KI dramatisch zunimmt.

Relevanz für Deutschland

Für Deutschland ist dieser Fall hochrelevant. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat in seinem Lagebericht 2025 KI-gestützte Cyberangriffe als wachsende Bedrohung identifiziert, sich dabei aber hauptsächlich auf KI-generierte Phishing-Mails und Deepfakes konzentriert. Der GTIG-Bericht zeigt, dass die Bedrohung bereits eine neue Stufe erreicht hat: KI wird nicht mehr nur für Social Engineering eingesetzt, sondern für die Entwicklung technisch anspruchsvoller Exploits. Deutsche Unternehmen und Behörden, die quelloffene Administrations-Tools wie Webmin einsetzen, sind potenziell betroffen. Die KRITIS-Verordnung und das IT-Sicherheitsgesetz 2.0 verpflichten Betreiber kritischer Infrastrukturen zwar zu regelmäßigen Sicherheitsaudits - aber gegen bislang unbekannte Schwachstellen helfen diese nur begrenzt. Das BSI sollte diesen Fall zum Anlass nehmen, seine Bedrohungsanalyse für KI-gestützte Angriffe zu aktualisieren und Empfehlungen für den Umgang mit KI-beschleunigter Exploit-Entwicklung zu erarbeiten.

Faktencheck

Die Kernfakten stammen direkt aus dem GTIG-Blogpost und werden von CNBC, BleepingComputer, SecurityWeek und Axios übereinstimmend berichtet. Das 'hohe Vertrauen' in die KI-Herkunft des Codes basiert auf stilistischen Merkmalen (Docstrings, halluzinierter CVSS-Score, LLM-typische Formatierung) - es handelt sich also um eine Einschätzung, keinen forensischen Beweis. Google nennt weder den Namen des betroffenen Tools noch die CVE-Nummer der Schwachstelle, was eine unabhängige Überprüfung erschwert. Die Angaben zu APT45 und chinesischen Akteuren stammen ebenfalls aus dem GTIG-Bericht und sind durch deren etablierte Bedrohungsforschung gestützt. Einschränkung: Google ist sowohl Entdecker als auch Vermarkter von Sicherheitsprodukten - ein gewisses kommerzielles Interesse an der Dramatisierung von Bedrohungen kann nicht ausgeschlossen werden. Dennoch: Die technischen Details sind konsistent und plausibel.

Quelle

  • Google Cloud Blog 11.05.2026: Adversaries Leverage AI for Vulnerability Exploitation, Augmented Operations, and Initial Access (cloud.google.com/blog/topics/threat-intelligence/ai-vulnerability-exploitation-initial-access)
  • CNBC 11.05.2026: Google says it likely thwarted effort by hacker group to use AI for mass exploitation event (cnbc.com/2026/05/11/google-thwarts-effort-hacker-group-use-ai-mass-exploitation-event.html)
  • BleepingComputer 11.05.2026: Google - Hackers used AI to develop zero-day exploit for web admin tool (bleepingcomputer.com/news/security/google-hackers-used-ai-to-develop-zero-day-exploit-for-web-admin-tool/)
  • SecurityWeek 11.05.2026: Google Detects First AI-Generated Zero-Day Exploit (securityweek.com/google-detects-first-ai-generated-zero-day-exploit/)
  • Axios 12.05.2026: AI-assisted hacking is already here, Google warns (axios.com/2026/05/12/ai-hacking-found-google-report)
Teilen:
SicherheitKI-FähigkeitenGesellschaftDatenschutz