Die Kehrseite der neuesten digitalen Revolution
Energieverbrauch der Künstlichen Intelligenz
Die Kehrseite der neuesten digitalen Revolution
hei Frankfurt
Knapp zwei Jahre nachdem die damals noch kleine amerikanische Open Source-Firma Open AI mit ChatGPT eine bahnbrechende Software-Innovation lancierte, tritt eine elementare Begleiterscheinung der neuesten digitalen Revolution immer deutlicher zu Tage: Generative Künstliche Intelligenz, die nicht nur einfache Fragen umfassend beantworten, sondern anspruchsvolle Texte schreiben, komplizierte mathematische Gleichungen lösen, menschengleich eine Konversation führen und sogar Software-Codes schreiben kann, braucht dafür Energie in einem Ausmaß, die eine herkömmliche Google-Suche weit in den Schatten stellt. Der Digital-Plattform Bestbrokers zufolge braucht eine ChatGPT-Anfrage das 10-fache an Energie einer Google-Suche.
Die Plattform errechnet einen Jahresverbrauch von 227 Millionen Kilowattstunden für den Textroboter, eine Strommenge, die den Jahresbrauch eines kleinen Landes übersteigt und fast 50 Millionen iPhones ein ganzes Jahr lang täglich laden könnte oder auch mehr als 3 Millionen E-Autos aufladen. Die Energie dafür muss durch eine stetig wachsende Kapazität in Rechenzentren bereit gestellt werden, deren Hauptkunden neben Amazon Web Services vor allem Google, Microsoft und Meta sind, die alle drei die eigene KI-Entwicklung mit tiefen Taschen voranstreiben und dabei allein für das Training von KI-Modellen einen kaum stillbaren Energiehunger entfalten. Der Bedarf expandiert infolgedessen mit Siebenmeilenstiefeln. So hat sich der Stromverbauch von Meta, Google und Microsoft seit 2018 bis Ende 2024 vorraussichtlich vervierfacht und liegt dann bei 80 Terrawatt. Das wäre ein Viertel mehr als die Schweiz insgesamt im Jahr verbraucht. Hier liegt die große Herausforderung von KI.