Energiefresser Künstliche Intelligenz: Warum KI zum Klimakiller wird

31.05.2024
von Jörg Schieb

Künstliche Intelligenz ist ein Wachstumsmarkt. Doch kaum einer spricht über den Energieaufwand, der mit dem KI-Einsatz einhergeht. Der US-Podcaster Paris Marx schon.

Künstliche Intelligenz boomt wie nie zuvor. Während alle über die Chancen von ChatGPT, Claude und Co. reden, verschweigen viele ein zentrales Problem: KI ist ein gewaltiger Energiefresser.

2026 ist KI längst im Alltag angekommen. Fast täglich nutzen Millionen Menschen generative KI-Tools – für Texte, Bilder, Code oder Videos. Doch kaum jemand macht sich Gedanken über die versteckten Kosten dieser digitalen Revolution.

Eine einzige ChatGPT-Anfrage verbraucht etwa zehnmal mehr Energie als eine Google-Suche. Bei komplexeren KI-Modellen wie GPT-4o oder Claude 3.5 Sonnet ist der Verbrauch noch deutlich höher. Bildgenerierung mit DALL-E, Midjourney oder Stable Diffusion? Das Hundertfache einer Textanfrage.

Energieverbrauch von KI: Ein oft übersehenes Problem
Energieverbrauch von KI: Ein oft übersehenes Problem

KI-Boom treibt Stromverbrauch in die Höhe

Die Zahlen sind erschreckend: Der globale Energieverbrauch für KI-Training und -Inferenz hat sich 2025 gegenüber dem Vorjahr verdoppelt. Aktuelle Schätzungen gehen von über 150 Terawattstunden pro Jahr aus – mehr als der Stromverbrauch von Argentinien oder den Niederlanden.

OpenAI, Google, Microsoft und Meta wetteifern um immer größere Modelle. GPT-5, Gemini Ultra und Co. benötigen gigantische Rechenfarmen. Ein einzelnes Training von GPT-4 verbrauchte geschätzt 50 Gigawattstunden – genug Strom für 5.000 Haushalte ein ganzes Jahr lang.

Besonders problematisch: Die neuen multimodalen KI-Systeme, die Text, Bild, Audio und Video gleichzeitig verarbeiten. Anthropics Claude 3.5, OpenAIs GPT-4o oder Googles Gemini Pro 1.5 sind wahre Energieschleudern.

Moderne KI-Systeme sind praktisch, aber energieintensiv
Moderne KI-Systeme sind praktisch, aber energieintensiv

Rechenzentren: Die unsichtbaren Stromfresser

Microsoft, Google und Amazon bauen ihre KI-Rechenzentren massiv aus. Allein Microsoft investierte 2025 über 50 Milliarden Dollar in neue Datacenter – primär für KI-Workloads. Diese modernen KI-Rechenzentren verbrauchen bis zu 100 Megawatt pro Standort.

Die neuen H100- und H200-GPUs von Nvidia, das Rückgrat aktueller KI-Systeme, ziehen jeweils bis zu 700 Watt. Ein einzelnes Rack mit acht solcher Karten benötigt mehr Strom als ein Einfamilienhaus. Tausende dieser Racks laufen rund um die Uhr.

Meta plant für 2026 Rechenzentren mit über einer Million GPUs. Der Stromhunger ist so gewaltig, dass die Tech-Riesen eigene Atomkraftwerke erwägen. Microsoft reaktivierte bereits das AKW Three Mile Island exklusiv für KI-Computing.

Tech-Kritiker wie Paris Marx warnen vor den Folgen
Tech-Kritiker wie Paris Marx warnen vor den Folgen

Wasserkrise durch KI-Kühlung

Ein oft übersehener Aspekt: KI-Rechenzentren verbrauchen Unmengen an Wasser für die Kühlung. Pro KI-Anfrage werden durchschnittlich 500 Milliliter Wasser verdampft – bei Milliarden täglicher Anfragen eine Katastrophe.

Googles Rechenzentrum in The Dalles verbrauchte 2025 über 5 Milliarden Liter Wasser – ein Anstieg von 40% gegenüber dem Vorjahr. In wasserarmen Regionen wie Arizona oder Nevada protestieren Gemeinden gegen neue KI-Zentren.

Der Tech-Kritiker Paris Marx warnt in seinem Podcast „Tech Won’t Save Us“ vor den Konsequenzen: „Wir opfern lokale Wasserressourcen für globale KI-Träume. Das ist nicht nachhaltig.“

Hardware-Verschleiß und Elektroschrott

KI-Hardware verschleißt schnell. Die permanente Volllast bei 80-90°C lässt GPUs nach 2-3 Jahren altern. Nvidia schätzt, dass bis 2027 über 10 Millionen KI-Chips ersetzt werden müssen – ein Berg von Elektroschrott.

Die Produktion einer einzigen H100-GPU benötigt 1.000 kWh Energie und seltene Erden aus konfliktreichen Minen. Das Recycling ist komplex und teuer – die meisten Chips landen im Müll.

Effizienzfortschritte reichen nicht

Zwar arbeiten Forscher an effizienteren KI-Architekturen. Apples neuromorphe Chips oder Googles TPU v5 sind sparsamer als frühere Generationen. Doch der Effizienzgewinn wird durch explodierende Nutzerzahlen mehr als wettgemacht.

Edge-AI, die KI-Verarbeitung direkt auf Smartphones und Laptops, könnte entlasten. Doch für komplexe Aufgaben bleiben Cloud-basierte Modelle unverzichtbar.

Regulierung und Transparenz gefordert

Die EU plant für 2026 erstmals Energieeffizienz-Standards für KI-Systeme. Anbieter müssen künftig den CO2-Fußabdruck ihrer Modelle offenlegen. Auch eine „KI-Steuer“ basierend auf dem Energieverbrauch steht zur Diskussion.

Tech-Konzerne reagieren mit Greenwashing: Microsoft verspricht „CO2-negative“ KI bis 2030, investiert aber parallel in die energiehungrigsten KI-Modelle aller Zeiten.

Am Ende liegt es auch an uns Nutzern: Brauchen wir wirklich für jede Kleinigkeit KI? Manchmal reicht eine einfache Google-Suche. Bewusster KI-Konsum ist der erste Schritt zu nachhaltiger Digitalisierung.

Zuletzt aktualisiert am 16.02.2026