Hannover Messe 2025 Wie KI vom Energiefresser zum Energiesparer wird

Quelle: Universität des Saarlandes 4 min Lesedauer

Anbieter zum Thema

Ein Forschungsteam will KI um bis zu 90 Prozent energieeffizienter machen: Um den ökologischen KI-Fußabdruck zu verbessern, denkt es Rechenzentren, Sprachmodelle und visuelle Modelle neu – und verschafft zugleich mittelständischen und kleineren Unternehmen Zugang zu leistungsfähigen KI-Modellen.

Bei einer Frage braucht man nicht die ganze Bibliothek, es reichen die Bücher mit den passenden Antworten. Ganz ähnlich funktioniert die Methode, mit der die Forscherinnen Sabine Janzen (r.) und Hannah Stein (l.) KI weit energieeffizienter machen wollen.(Bild:  Oliver Dietze/Universität des Saarlandes)
Bei einer Frage braucht man nicht die ganze Bibliothek, es reichen die Bücher mit den passenden Antworten. Ganz ähnlich funktioniert die Methode, mit der die Forscherinnen Sabine Janzen (r.) und Hannah Stein (l.) KI weit energieeffizienter machen wollen.
(Bild: Oliver Dietze/Universität des Saarlandes)

Rechenzentren verbrauchen viel Energie. Im vergangenen Jahrzehnt hat sich ihr Strombedarf in Deutschland laut dem Digitalverband Bitkom mehr als verdoppelt. Tendenz: stark steigend – die digitale Transformation kommt gerade erst in Fahrt. Daten zu speichern, sie zu verarbeiten, hin- und herzuschicken, sie abzurufen – alles kostet Strom. Vor allem künstliche Intelligenz (KI) ist ein Energiefresser. KI-Modelle mit Massendaten anzulernen, sie zu trainieren und zu betreiben, verbraucht rund um den Globus viele Terawattstunden. Bilder und Texte mit solchen KI-Modellen zu erstellen, ebenso.

Mit den richtigen Methoden können wir die Rechenzentren der Zukunft nachhaltiger gestalten.

Professor Wolfgang Maaß

Immer mehr Rechenzentren müssen also immer größer werden, brauchen immer mehr Strom, immer mehr Kühlung und stoßen so immer mehr Kohlenstoffdioxid aus. Das kommt auch dem europäischen Ziel in die Quere, bis 2050 klimaneutral zu werden – wenn alles so bleibt, wie es ist.

Bedarfsgerechte, schlanke Modelle

„Künstliche Intelligenz kann erheblich energieeffizienter werden. Mit den richtigen Methoden können wir die Rechenzentren der Zukunft nachhaltiger gestalten“, ist Professor Wolfgang Maaß überzeugt, der an der Universität des Saarlandes und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) forscht. Um den Energiehunger der KI zu drosseln und Ressourcen zu schonen, entwickelt sein Forschungsteam schlankere, bedarfsgerechtere KI-Modelle. Außerdem wollen die Forscher für Rechenzentren Einsparpotenzial aufzeigen.

Leistungsfähige KI-Modelle auch für KMU

„Indem wir die Modelle kleiner und effizienter machen, tragen wir zum einen zu mehr Nachhaltigkeit bei“, sagt Sabine Janzen, promovierte Forscherin im Team von Wolfgang Maaß. „Zum anderen öffnet dies gerade auch mittelständischen und kleineren Unternehmen Zugang zu leistungsfähigen KI-Modellen. Die kleineren KI-Modelle bedürfen keiner großen Infrastruktur mehr. Sie werden damit für alle zugänglich und nicht nur für die großen Player“, betont sie.

Kleinere Modelle dank Wissensdestillation

Heutige Chatbots wie Chat GPT und visuelle KI-Modelle verwenden Billionen Parameter und nutzen riesige Datenmodelle, um ihre Aufgaben zu erfüllen. Entsprechend hoch ist ihr Energieverbrauch. Diesen Verbrauch wollen die Forscher senken. Und zwar ohne, dass die KI-basierten digitalen Assistenten gewünschte Antworten schuldig bleiben. „Wir arbeiten dabei unter anderem mit sogenannter Wissensdestillation. Das ist eine Art Kompressionstechnologie, mit der wir die Modelle kleiner machen. Bei vergleichbarer Leistung verbrauchen KI-Modelle hierdurch weit weniger Energie", erklärt Sabine Janzen.

Vom Lehrer- zum Schülermodell

Ebenso wie es nicht notwendig ist, bei einer Frage eine ganze Bibliothek zu lesen, sondern nur die Bücher mit passenden Antworten, gehen die Forscher auch hier vor: Sie extrahieren aus großen Lehrermodellen kleine, fokussierte und sparsame Schülermodelle. Indem sie also das wirklich benötigte Wissen für einen Aufgabenbereich destillieren und auf das Wesentliche reduzieren, können sie die Datenmodelle um bis zu 90 Prozent verschlanken. Unwesentliche Parameter werden erst gar nicht verarbeitet. „Diese Schülermodelle bringen vergleichbare Leistung, kommen aber perspektivisch mit bis zu 90 Prozent weniger Energie aus“, sagt die Forscherin.

Diese Schülermodelle bringen vergleichbare Leistung, kommen aber perspektivisch mit bis zu 90 Prozent weniger Energie aus.

Sabine Janzen

Energie sparen mit der „Neuronalen Architektursuche“

Speziell bei visuellen KI-Modellen, also solchen, die digitale Bilddaten verarbeiten, erzielen die Forscher bereits gute Ergebnisse mit einer weiteren Methode, die hilft, Energie zu sparen: mit der sogenannten „Neuronalen Architektursuche“. „Unsere neuesten Ergebnisse zeigen, dass wir auch hiermit die Modelle um rund 90 Prozent verkleinern können“, sagt Sabine Janzen.

Dabei nehmen die Forscher eine sehr energieintensive KI-Methode in den Fokus, die große Datenmassen auswerten kann: das maschinelle Lernen mit künstlichen neuronalen Netzen. Diese ahmen das menschliche Gehirn nach:

  • Viele Milliarden Nervenzellen, Neuronen genannt, sind im Gehirn über Billionen von Synapsen miteinander verbunden.
  • In einem neuronalen Netz kommunizieren die Neuronen über Synapsen-Schnittstellen miteinander.
  • Beim Training des neuronalen Netzes bilden sich hier neue Verbindungen während andere sich wieder auflösen.

KI findet geeignete Architektur

In künstlichen neuronalen Netzen laufen Lernprozesse ähnlich ab. Sie können mit Daten trainiert werden, so dass sie zum Beispiel Muster in Sprache oder Bildern erkennen. Aber im Gegensatz zum Gehirn, das ein Meister in Sachen Energieeffizienz ist, braucht dieses Training viel Rechenleistung und damit viel Strom: Solche künstlichen neuronalen Netzwerke sind Ergebnis aufwändiger Handarbeit. Menschen stellen sie zusammen, passen die Parameter immer weiter an, solange, bis dann schließlich gute Ergebnisse herauskommen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Hier bringt das Saarbrücker Forschungsteam die „Neuronale Architektursuche“ ins Spiel. „Anstatt die Zusammensetzung der neuronalen Netze manuell zu entwerfen, verwenden wir dieses Verfahren, bei dem KI automatisch die beste Architektur findet“, erklärt Sabine Janzen, „Wir probieren dabei verschiedene Netzstrukturen aus und optimieren diese, um ein Modell mit hoher Leistung, Effizienz und reduzierten Kosten zu erstellen.“

Handlungsempfehlungen für mehr Energieeffizienz

Mit Partnern erarbeitet das Saarbrücker Forschungsteam zudem ein Konzept und Handlungsempfehlungen für nachhaltige Rechenzentren und energieeffiziente KI. „Bislang können Entscheidungsträger nur schwer abschätzen, für welche Modelle sie wie viel Energie verbrauchen werden. Das macht es für sie schwierig, wirtschaftlich zu planen“, erläutert die Doktorandin Hannah Stein, die an den energiesparenden KI-Methoden forscht. „Wir erarbeiten daher ein Werkzeug, das zuverlässige Prognosen ermöglicht, wie der genaue Energieverbrauch und die zusammenhängenden Kosten der KI-Modelle aussehen werden“, erklärt Hannah Stein. Mit diesem Wissen können Rechenzentren und KI-Anwender besser planen, unwirtschaftliche Abläufe erkennen und notfalls Gegenmaßnahmen ergreifen – zum Beispiel große Rechenleistungen dann einplanen, wenn der Strompreis günstig ist.

Hannover Messe 2025: Halle 2 Stand A18

(ID:50359209)