Allgemein, Rückblick, Top-Themen, Verbandsbezirke
Schreibe einen Kommentar

Wie KI den Energieverbrauch explodieren lässt – und was Abhilfe schafft

Neues vom Industriemuseum

Wie KI den Energieverbrauch explodieren lässt – und was Abhilfe schafft
Die zunehmende Verbreitung von künstlicher Intelligenz hat die Nachfrage nach Ressourcen in Rechenzentren und damit auch den Energiebedarf deutlich steigen lassen.
So wurde allein für das Training von GPT-4 , dem großen Sprachmodell von OpenAI mehr als 62 Millionen kWh an Strom verbraucht. Das entspricht etwa dem jährlichen Stromverbrauch von 20.000 Haushalten in Deutschland.
Aber auch die Anwendung von KI ist ressourcenintensiv. Eine Anfrage an ChatGPT verbraucht z.B. zehnmal mehr Energie als eine durchschnittliche Suche mit Google.

Warum die Entwicklung und Nutzung von KI so viel Energie benötigt
Bei der Entwicklung und der Nutzung von KI-Modellen kommen meist spezialisierte Beschleuniger, sogenannte Graphics Processing Units GPUs zum Einsatz, die mit sehr viel Rechenkernen ausgestattet sind und große Datenmengen in kurzer Zeit parallel verarbeiten können.
Von dieser Parallelverarbeitung profitieren vor allem große Sprachmodelle und andere Deep – Learning -Verfahren, die auf tiefen neuronalen Netzen beruhen.

GPUs verbrauchen allerdings auch deutlich mehr Strom als herkömmliche Server-Prozessoren (CPUs). Nach Berechnungen liegt die Anschlussleistung typischer GPU-Cluster bei 30 bis 100 Kilowatt pro Rack. Zukünftig könnte sie sogar bis zu einem Megawatt betragen.
Große Cluster mit mehreren Tausend GPUs erreichen Anschlussleistungen von 20 MW und mehr. Das entspricht in etwa dem Strombedarf einer Kleinstadt.
Zum direkten Strombedarf der Recheneinheiten kommt der Energieaufwand für die Kühlung hinzu.

Auch bei der Anwendung von KI spielt der Strombedarf der Rechenzentren die größte Rolle. Vor allem ältere Client-Hardware ist nicht in der Lage , KI-Berechnungen lokal durchzuführen.
Die Daten werden deshalb in die Cloud-Rechenzentren der Anbieter übertragen, dort verarbeitet und die Ergebnisse auf das Endgerät zurückgespielt.
Selbst wenn jede Transaktion nur wenige Watt benötigt, summiert sich der Energiebedarf durch die schiere Masse. Allein ChatGPT muss laut dem Hersteller jeden Tag 2,5 Milliarden Anfragen verarbeiten.

So können Unternehmen den Energieverbrauch durch KI senken
Für Unternehmen, die KI-Modelle entwickeln oder diese anwenden, gibt es eine ganze Reihe von Möglichkeiten , den Energiebedarf zu senken:

  • Modelle an den Bedarf anpassen
    Oft lassen sich die Modellkomplexität und die Genauigkeit der Berechnung ohne nennenswerte Einbußen reduzieren
  • „Grüne“ Algorithmen verwenden
    Die Nutzung effizienter Algorithmen kann zu deutlichen Energieeinsparungen führen
  • Rechenzentrum modernisieren
    Durch den Austausch älterer Server-Hardware lasst sich nicht nur der Energieverbrauch senken, sondern auch die KI-Performance von GPU-Knoten um bis zu 20% steigern
  • Workloads richtig verteilen
    Tatsächlich profitieren nicht alle KI-Worklouds von einer massiven Parallelverarbeitung. Aufgaben wie klassisches maschinelles Lernen, Mustererkennung und Graphenanalysen lassen sich genau so gut auf einer leistungsfähigen CPU-Plattform ausführen
  • In KI-PCs investieren
    Viele KI-Aufgaben werden in eine Cloud ausgelagert.Unternehmen sollen bei lokaler Bearbeitung beim Austausch von Clients auf die neue Geräteklasse der KI-PCs setzen. Sie sind mit einer zusätzlichen Berechnungseinheit, der Neural Processing Unit (NPU) ausgestattet, die für KI-Aufgaben spezialisiert ist.

Folgen für Klima und Umwelt
Der hohe Energieverbrauch beim Training und bei der Anwendung von KI führt zu einem vermehrten Ausstoß klimaschädlicher Gase.Laut dem 2025 AI Index Report der Harvard Universität belief sich der CO2-Fußabdruck für die Entwicklung von GPT-4 auf fast 5.200 Tonnen.
Der Anstieg des Energieverbrauchs durch die vermehrte KI-Nutzung und die damit verbundene CO2- Emissionen drohen die Fortschritte im Kampf gegen den Klimawandel zu torpedieren.

Hersteller wie AMD sind sich ihrer Verantwortung bewusst und werden die Energieeffizienz von Rechenknoten für KI-Training und High-Performances Computing deutlich erhöhen.

Quelle. Heise business services (Gekürzt)

Lothar Starke
Vorsitzender
https://www.facebook.com/Industriemuseum
www.imt-museum.de

Foto: Industriemuseum Region Teltow

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert