KI
KIneAngst
Alle News
🟢 Unbegründet

Forschungsdurchbruch: Neuro-symbolische KI braucht 100-mal weniger Energie und liefert bessere Ergebnisse

Was wirklich drin steht

Forscher der Tufts University um Professor Matthias Scheutz haben einen neuro-symbolischen KI-Ansatz entwickelt, der neuronale Netze mit symbolischem logischen Schlussfolgern kombiniert. Angewendet auf sogenannte Vision-Language-Action-Modelle (VLA) - KI-Systeme, die Robotern das Sehen, Verstehen und Handeln ermoeglichen - erreicht das System eine Erfolgsrate von 95 Prozent bei strukturierten Manipulationsaufgaben (Turm von Hanoi), waehrend herkoemmliche VLA-Modelle nur 34 Prozent schaffen. Bei einer komplexeren Variante, die das System vorher nie gesehen hatte, lag die Erfolgsrate bei 78 Prozent - herkoemmliche Modelle scheiterten bei jedem Versuch. Entscheidend: Das Training des neuro-symbolischen Modells dauerte nur 34 Minuten und verbrauchte lediglich ein Prozent der Energie, die ein herkoemmliches VLA-Modell benoetigt - das braucht ueber 36 Stunden. Die Forschungsergebnisse werden auf der International Conference on Robotics and Automation (ICRA) 2026 in Wien im Mai vorgestellt.

Unsere Einordnung

Der Forschungsdurchbruch ist ein wichtiges Signal gegen die weit verbreitete Sorge, dass KI-Systeme immer mehr Energie verschlingen und damit den Klimawandel beschleunigen. Die Ergebnisse zeigen, dass der Weg zu leistungsfaehigerer KI nicht zwangslaeuig ueber immer groessere Modelle und immer mehr Rechenleistung fuehren muss. Gleichzeitig ist Einordnung noetig: Die Forschung bezieht sich auf einen spezifischen Bereich - Robotik-Steuerung mit strukturierten Aufgaben - und laesst sich nicht eins zu eins auf grosse Sprachmodelle wie ChatGPT oder Claude uebertragen. Der Ansatz zeigt aber ein grundsaetzliches Prinzip: Wenn KI-Systeme nicht nur Muster erkennen, sondern auch logisch schlussfolgern koennen, brauchen sie weniger Daten und weniger Rechenleistung. Die Ergebnisse sind peer-reviewed und werden auf einer der renommiertesten Robotik-Konferenzen praesentiert - das spricht fuer wissenschaftliche Soliditaet.

Relevanz für Deutschland

Der Energieverbrauch von KI ist in Deutschland ein heiss diskutiertes Thema. Neue Rechenzentren in Frankfurt, Berlin und anderen Standorten treiben den Stromverbrauch nach oben, waehrend Deutschland gleichzeitig die Energiewende vorantreiben will. Forschungsansaetze wie dieser zeigen, dass effizientere KI-Architekturen moeglich sind - ein wichtiges Argument in der deutschen Debatte um KI und Nachhaltigkeit. Zudem wird die Forschung auf der ICRA in Wien praesentiert, einer der groessten Robotik-Konferenzen, die auch fuer deutsche Forschungseinrichtungen wie das DFKI zentral ist. Das DFKI zeigt auf der Hannover Messe 2026 (20.-24. April) ebenfalls KI-Robotik-Systeme - die Frage der Energieeffizienz wird dort ein zentrales Thema sein.

Faktencheck

Die Kernfakten - 95 Prozent Erfolgsrate versus 34 Prozent bei herkoemmlichen VLAs, 78 Prozent bei unbekannten Aufgaben versus 0 Prozent, Trainingszeit von 34 Minuten versus ueber 36 Stunden, ein Prozent des Energieverbrauchs - werden uebereinstimmend von der Tufts-Pressemitteilung, ScienceDaily und Engineering & Technology berichtet. Die Forschung stammt aus dem Labor von Matthias Scheutz an der Tufts School of Engineering und wird auf der ICRA 2026 in Wien praesentiert. Einschraenkung: Die Ergebnisse beziehen sich auf VLA-Modelle fuer Robotik (strukturierte Manipulationsaufgaben), nicht auf grosse Sprachmodelle. Der 100x-Faktor bezieht sich auf den Trainingsenergieaufwand; der Inferenz-Energieverbrauch im laufenden Betrieb wurde nicht separat beziffert. Die Uebertragbarkeit auf andere KI-Domaenen ist plausibel, aber noch nicht nachgewiesen.

Quelle

  • Tufts University Pressemitteilung 17.03.2026 (now.tufts.edu/2026/03/17/new-ai-models-could-slash-energy-use-while-dramatically-improving-performance)
  • ScienceDaily 05.04.2026 (sciencedaily.com/releases/2026/04/260405003952.htm)
  • Engineering & Technology 07.04.2026 (eandt.theiet.org/2026/04/07/ai-system-could-cut-energy-use-100-times-researchers-say)
  • Gary Marcus / Substack (garymarcus.substack.com/p/even-more-good-news-for-the-future)
Teilen:
KI-ModelleKI-FaehigkeitenStudie