Lesezeit: 2 Minuten

Energieverbrauch KI: Chancen und Herausforderungen

Künstliche Intelligenz (KI) treibt Innovationen voran, optimiert Prozesse und verändert ganze Industrien. Doch während KI-Modelle immer leistungsfähiger werden, steigt auch ihr Energieverbrauch rasant an. Rechenzentren, die riesige Mengen an Daten verarbeiten, benötigen enorme Mengen an Strom – oft mit erheblichen ökologischen Folgen. Der Energieverbrauch von KI wird zunehmend zu einem wichtigen Thema in der Diskussion um nachhaltige Technologien.

Wie energiehungrig ist KI wirklich? Welche Varianten gibt es und wie stehen diese beim Stromverbrauch da? In diesem Artikel beleuchten wir die Energieeffizienz und den Energieverbrauch von KI, diskutieren Herausforderungen und zeigen, welche Ansätze für eine umweltfreundlichere KI-Entwicklung bereits existieren.

KI verbessert Energieeffizienz

Auch wenn es nicht direkt das Thema des Blogeintrages ist, bietet künstliche Intelligenz neben ihrem eigenen Energieverbrauch von KI auch großes Potenzial, die Energieeffizienz in verschiedenen anderen Bereichen zu steigern.

Durch ihre Fähigkeit, komplexe Zusammenhänge zu analysieren, versteckte Muster zu erkennen und Prozesse zu optimieren, kann KI dazu beitragen, Ressourcen effizienter zu nutzen. In der Industrie hilft sie beispielsweise dabei, Maschinenlaufzeiten zu optimieren, den Energieverbrauch in Produktionsprozessen zu senken oder vorausschauende Wartungskonzepte zu entwickeln, um unnötigen Stromverbrauch und Ausfälle zu vermeiden. Auch in Gebäuden kann KI durch intelligente Steuerungssysteme den Energieeinsatz für Heizung, Kühlung und Beleuchtung anpassen und so den Gesamtverbrauch erheblich reduzieren.

Besonders in den dezentralen Stromnetzen der Zukunft wird KI eine Schlüsselrolle spielen. Mit der zunehmenden Integration erneuerbarer Energien wird das Energiesystem immer komplexer, da Wind- und Sonnenenergie wetterabhängig und schwer vorhersehbar sind. KI kann den Energieverbrauch in Echtzeit optimieren und hilft, Angebot und Nachfrage besser zu koordinieren. Durch intelligente Algorithmen lassen sich Energieflüsse besser steuern, wodurch Netzstabilität gewährleistet und erneuerbare Energien optimal eingesetzt werden können. So trägt KI nicht nur zur Optimierung einzelner Systeme bei, sondern könnte langfristig dazu beitragen, die gesamte Energieinfrastruktur nachhaltiger und effizienter zu gestalten.

Dazu gibt es einige aktuelle und auch ältere Untersuchungen, die zeigen, dass das Thema kein Hype ist, sondern sich in der aktiven Umsetzung befindet:

·       Roadmap Energieeffizienz 2045, BM für Wirtschaft und Klimaschutz

·       CORDIS EU Report zu Energieeffizienz (2020)

·       Frauenhofer: Künstliche Intelligenz für die integrierte Energiewende (2019)

·       Enercity: Energie sparen mit der Künstlichen Intelligenz?

Energieverbrauch von KI: Wie effizient sind die Systeme?

Trotz ihres Potenzials zur Energieeinsparung stellt sich die Frage, wie effizient KI selbst mit Energie umgeht. Besonders das Training großer Modelle erfordert enorme Rechenleistungen und damit erhebliche Mengen an Strom. Aber auch der laufende Betrieb – also die Nutzung trainierter Modelle – verbraucht Energie, insbesondere wenn KI in Echtzeitanwendungen oder groß angelegten Systemen eingesetzt wird. Der Energieverbrauch von KI bleibt eine Herausforderung, für die neue Ansätze erforderlich sind, um sowohl das Training als auch die Nutzung energieeffizienter zu gestalten.

Training von KI

Das Training von KI-Modellen ist eine der energieintensivsten Phasen im Lebenszyklus künstlicher Intelligenz. Hierbei werden riesige Mengen an Daten verarbeitet, analysiert und „eingedampft“, indem sie in mehrere Schichten zerlegt, bewertet und hinsichtlich ihrer Ähnlichkeit zu bereits Gelerntem eingeordnet werden. Diese Informationen werden anschließend in großen Datenbanken gespeichert, um später für Anfragen genutzt zu werden. Der hohe Rechenaufwand entsteht dadurch, dass Ähnlichkeiten nicht nur auf einer, sondern auf Millionen von Ebenen betrachtet werden. Dies bedeutet, dass Daten ständig verglichen, neu berechnet und aus den Datenbanken abgerufen werden müssen – ein Prozess, der enorme Rechenkapazitäten und damit viel Energie benötigt.

Um diesen Energieverbrauch zu senken, gibt es verschiedene Optimierungsstrategien. Manche Verfahren setzen auf effizientere Algorithmen, die den Trainingsprozess zeitlich verkürzen. Andere Modelle, wie DeepSeek, verlagern einen Teil der Rechenlast auf die spätere Nutzung, wodurch das Training energieeffizienter wird, die Abfragen aber aufwendiger sein können. Dennoch bleibt das Training eine der teuersten und energieintensivsten Komponenten von KI, und je nach gewähltem Ansatz verschiebt sich der Energieverbrauch zwischen Training und späterer Nutzung.

Dank der steigenden medialen Aufmerksamkeit und der zunehmenden Bedeutung von KI sind derzeit viele Forschungsbereiche in der Lage, zusätzliche Gelder für neue Entwicklungen zu sichern. In Deutschland ist die Fraunhofer-Gesellschaft ein bedeutender Akteur in der anwendungsnahen Forschung. Ein vielversprechender Ansatz aus dem Jahr 2024 ist das „Föderierte Lernen“ (Federated Learning, FL), bei dem die Datenverarbeitung dezentral erfolgt und erst später konsolidiert wird. Diese Technik kann den Energieverbrauch um bis zu 65 % reduzieren und trägt dazu bei, dass Europa in der KI-Forschung zu China und den USA aufschließt.

Dennoch findet der Großteil der Modellerstellung weiterhin außerhalb der EU statt. Ob die aktuellen politischen Spannungen dazu führen, dass Europa stärker in eigene KI-Infrastrukturen investiert, bleibt abzuwarten, die Chancen stehen aber gut.

Die Dimensionen des Rechenaufwands für das KI-Training lassen sich anhand aktueller Zahlen zu den verwendeten Chips beim Training der Top Modelle erkennen:

·       Grok (xAI von Elon Musk): ca. 100.000 Nvidia-Chips

·       ChatGPT (OpenAI): ca. 25.000 Chips

·       DeepSeek (High Flyer): angeblich nur ca. 2.000 Chips (hier gibt es noch Bedenken bzgl. der Korrektheit, aber es scheinen weit weniger als die 25.000 von OpenAI gewesen zu sein)

Während diese Entwicklung kurzfristig die Aktienkurse von Energieunternehmen und Nvidia belastet hat, ist sie langfristig ein wichtiger Schritt in Richtung umweltfreundlicherer KI. Allerdings besteht die Gefahr, dass Effizienzgewinne wieder durch immer größere Trainingsläufe zunichtegemacht werden, da leistungsfähigere Modelle auch mehr Rechenkapazität erfordern.

Energieverbrauch von KI: Wie effizient sind die Systeme?

Trotz ihres Potenzials zur Energieeinsparung stellt sich die Frage, wie effizient KI selbst mit Energie umgeht. Besonders das Training großer Modelle erfordert enorme Rechenleistungen und damit erhebliche Mengen an Strom. Aber auch der laufende Betrieb – also die Nutzung trainierter Modelle – verbraucht Energie, insbesondere wenn KI in Echtzeitanwendungen oder groß angelegten Systemen eingesetzt wird. Der Energieverbrauch von KI bleibt eine Herausforderung, für die neue Ansätze erforderlich sind, um sowohl das Training als auch die Nutzung energieeffizienter zu gestalten.

Nutzung von KI im Web

KI bietet mittlerweile eine Vielzahl an Nutzungsmöglichkeiten für Endnutzer, neben Helfern, wie ChatGPT gibt es viele andere im Internet angebotene Dienste, um z.B. Bilder oder ganze Videos zu generieren. Diese Dienste brauchen nicht unerhebliche Mengen an Strom und sind aus diesem Grund auch selten werbefinanziert. Diese Dienste finanzieren sich über zwei- bis dreistellige Monatsbeiträge der Nutzer und sind selbst damit oft nicht kostendeckend.

Im Hinblick auf die Energieeffizienz, ist hier durch Bündelung der Rechenkapazitäten in den Rechenzentren eine effiziente Berechnung möglich und durch die Nutzung der Hardware durch alle Kunden, ist die Hardware gut ausgelastet.

Wenn jemand sehr detailliert die Energieeffizienz berechnet, gehören auch die Zugriffe auf die Systeme in die Berechnung, da Funk- und Netzwerkgeräte ebenfalls Strom benötigen. Wenn die einzige Alternative die Übertragung des Modells auf das Gerät des Nutzers ist, ist zu erwarten, dass KI im Web die bessere Variante ist, da die übertragenen Daten im Schnitt über alle Nutzer kleiner sein werden als die Modelle, die einmalig auf alle Geräte übertragen werden müssen.

Nutzung von KI nahe dem Nutzer

Durch die immer potenter werdenden Mobiltelefone und die entsprechend ausgestatteten Computer rückt die Nutzung von KI näher an die Nutzer heran. Es gibt immer wieder neue Produkte, die die KI-Modelle auf den Geräten der Nutzer ausführen.

Das ist für die Betreiber der Lösungen wesentlich günstiger, da die Abfragekosten auf die Kunden umgelegt werden. Diese haben dann den Vorteil, dass die Daten der Abfrage die eigenen Geräte nicht verlassen müssen. Was für den Datenschutz ein großer Pluspunkt ist.

Damit dies funktioniert, müssen die Modelle aber auf den Geräten der Nutzer abgelegt werden. Die Modelle, die annähernd die Mindestqualität der “Onlinemodelle” erreichen, sind allerdings oft mehrere Gigabyte groß und benötigen viel Arbeitsspeicher für die Berechnung der Antwort.

Daher ist zu erwarten, dass in absehbarer Zeit nur eingeschränkte Modelle lokal ablaufen, weil diese weniger Speicher benötigen. Durch die Spezialisierung sind diese nicht so flexibel, sind aber wesentlich kleiner im Platz- und Speicherverbrauch.

Die Energieeffizienz der Geräte an sich ist insb. mit speziellen KI-Chips nicht schlecht. Aber Mobiltelefone werden den steigenden Strombedarf durch größere Energiespeicher ausgleichen müssen und Computer einfach mehr Strom benötigen, im Vergleich zu einer Abfrage über das Internet.

Wenn ein auf einem Gerät in verschiedenen Programmen KI lokal eingesetzt wird, dann werden über die Zeit etliche lokale Modelle auf dem Gerät den Speicher belegen. Das kann zu einem Problem werden und wird sich nur rentieren, wenn die lokale Nutzung z.B. gesetzlich vorgeschrieben oder zu bevorzugen ist, oder die KI so oft bzw. intensiv Verwendung findet, dass eine Nutzung von KI im Web nicht gut genug ist.

Fazit

Wie man sieht, KI ist und bleibt ein Grund für gestiegenen Energieverbrauch. Es gibt je nach Einsatzszenario verschiedene Möglichkeit zu steuern, wo die Energie eingesetzt wird.

Aus Sicht des Gesamtenergieverbrauches ist bei Modellen mit vielen Nutzern und Nutzungen zu hoffen, dass hier der Fokus auf das Training gelegt wird, um möglichst günstige Abfragen zu erreichen und bei sehr flexiblen Modellen mit unterschiedlichsten Einsatzgebieten wird der “Sweetspot” bei höheren Abfragekosten liegen, die dann aber flexibler oder qualitativ besser sind.

Unklar ist, ob den Entscheidern hier eine gesamtwirtschaftliche Betrachtung am Herzen liegt oder eine für die eigenen Bedürfnisse optimierten Lösung. Es ist zu erwarten, dass letzteres der häufigste Fall sein wird.

Analog zur Bewertung des Energieverbrauchs von Geräten, wäre es wünschenswert, wenn etwas Analoges in Zukunft für AI-Modelle ebenfalls zur Geltung kommt, damit Verbraucher in die Lage versetzt werden, hier besser informiert entscheiden zu können.

Übrigens: In diesem Artikel kam auch KI zum Einsatz, allerdings nur um den Text „etwas zu glätten“ und nicht um Inhalte zu erstellen.

Weiterführende Links:

·       Future Energy Lab: Energieeffziente KI (Projekt für ein energieeffizientes Modell)

·       IBM: Die Zukunft der KI und Energieeffizienz

·       Ingenieur.de: Wie viel Strom verbraucht ChatGPT?

·       BASIC thinking: "DeepSeek: China-KI verbraucht offenbar mehr Energie als angenommen"

·       Drivingeco: "Chinesische KI DeepSeek R1 verbraucht 10 bis 40 Mal weniger Energie und erschüttert den Markt: Einbruch der Branchenaktien"

Blogautor

Patrick Cornelißen
Softwarearchitekt ARS Computer und Consulting GmbH
Ihr Erfolg ist unser Ziel

Stehen Sie vor komplexen IT-Projekten? Mit unserer Expertise bieten wir Ihnen maßgeschneiderte Lösungen. Erfahren Sie mehr.

Werde Teil unseres Teams

Wir suchen ständig nach neuen Talenten. Für dich haben wir genau die richtige Stelle. Schau dir unsere offenen Positionen an.

Noch Fragen? Wir helfen Ihnen gerne!