Wie KI den Energieverbrauch explodieren lässt – und was Abhilfe schafft
Neues vom Industriemuseum Wie KI den Energieverbrauch explodieren lässt – und was Abhilfe schafftDie zunehmende Verbreitung von künstlicher Intelligenz hat die Nachfrage nach Ressourcen in Rechenzentren und damit auch den Energiebedarf deutlich steigen lassen.So wurde allein für das Training von GPT-4 , dem großen Sprachmodell von OpenAI mehr als 62 Millionen kWh an Strom verbraucht. Das entspricht etwa dem jährlichen Stromverbrauch von 20.000 Haushalten in Deutschland.Aber auch die Anwendung von KI ist ressourcenintensiv. Eine Anfrage an ChatGPT verbraucht z.B. zehnmal mehr Energie als eine durchschnittliche Suche mit Google. Warum die Entwicklung und Nutzung von KI so viel Energie benötigtBei der Entwicklung und der Nutzung von KI-Modellen kommen meist spezialisierte Beschleuniger, sogenannte Graphics Processing Units GPUs zum Einsatz, die mit sehr viel Rechenkernen ausgestattet sind und große Datenmengen in kurzer Zeit parallel verarbeiten können.Von dieser Parallelverarbeitung profitieren vor allem große Sprachmodelle und andere Deep – Learning -Verfahren, die auf tiefen neuronalen Netzen beruhen. GPUs verbrauchen allerdings auch deutlich mehr Strom als herkömmliche Server-Prozessoren (CPUs). Nach Berechnungen liegt die Anschlussleistung typischer GPU-Cluster bei 30 bis 100 Kilowatt …

