„Bitte“, „Danke“, „Könntest du vielleicht …?“ – viele von uns schreiben solche Worte ganz selbstverständlich in ihre ChatGPT-Prompts. Weil man es so gelernt hat. Weil es sich höflich anfühlt. Und irgendwie auch sympathisch menschlich.
Doch jetzt hat niemand Geringeres als Sam Altman, Chef von OpenAI, öffentlich gemacht: Diese kleinen Gesten der Höflichkeit kosten Millionen. Und zwar nicht nur Geld, sondern auch jede Menge Strom.
Die KI-Modelle hinter Diensten wie ChatGPT sind echte Stromfresser. Jeder Prompt – also jede Anfrage – bedeutet Rechenarbeit in riesigen Rechenzentren. Je länger die Anfrage, desto aufwändiger die Verarbeitung. Und desto höher der Energieverbrauch. Höflichkeit, so kurios es klingen mag, hat also eine ökologische Komponente.
Was steckt hinter der Aussage von Sam Altman?
Altman sagte kürzlich sinngemäß: Wenn Menschen höflich mit ChatGPT sprechen, also Worte wie „bitte“ oder „danke“ verwenden oder besonders umständlich formulieren, dann treibt das die Betriebskosten in die Höhe. Genauer gesagt: auf mehrere zehn Millionen Dollar pro Jahr. Nur wegen überflüssiger Worte.
Natürlich meint er das nicht böse oder als Aufruf zur digitalen Unhöflichkeit. Vielmehr soll damit ein Bewusstsein geschaffen werden für den enormen Ressourcenverbrauch von KI – auch bei scheinbar kleinen Dingen. Denn dieser Effekt potenziert sich schnell: Je mehr Nutzer:innen mit der KI sprechen, desto stärker wirkt sich jeder zusätzliche Buchstabe aus.
Wie viel Strom verbraucht ChatGPT überhaupt – im Vergleich zu Google?
Ein Vergleich macht die Sache greifbar: Eine Google-Suchanfrage verbraucht im Schnitt etwa 0,0003 Kilowattstunden (kWh). Eine ChatGPT-Anfrage hingegen schlägt mit rund 0,0029 kWh zu Buche – also fast das Zehnfache.
Klingt nach wenig? Mag sein. Aber bei mehreren Milliarden Anfragen pro Tag sieht das anders aus. Ein Rechenbeispiel:
- 1 ChatGPT-Prompt = 0,0029 kWh
- 1 Milliarde Prompts = 2.900.000 kWh
- Das entspricht in etwa dem Jahresverbrauch von rund 1.000 deutschen Haushalten
Und wenn bei jedem Prompt durch Höflichkeitsfloskeln nur 20 % mehr Text entsteht, steigt der Stromverbrauch entsprechend. Bei 1 Milliarde Anfragen täglich ergibt das einen erheblichen Mehrverbrauch – eben jene Millionenkosten, von denen Altman spricht.
Warum nutzen Menschen überhaupt Höflichkeitsfloskeln bei einer Maschine?
Interessanterweise zeigt sich in Umfragen: Viele Menschen möchten auch beim Umgang mit Künstlicher Intelligenz nicht auf Höflichkeit verzichten. Einige tun es aus Prinzip – weil sie es als Teil guter Kommunikation sehen. Andere, weil sie sich wohler fühlen, wenn sie sich nicht wie mit einer Maschine, sondern wie mit einem „Wesen“ unterhalten.
Und dann gibt es auch Nutzer:innen, die aus Spaß oder aus einer gewissen Sci-Fi-Romantik heraus so kommunizieren – ganz nach dem Motto: Man weiß ja nie, ob die KI eines Tages zurückschaut, wer nett zu ihr war…
Macht Höflichkeit die Antworten besser?
Das ist tatsächlich eine berechtigte Frage – und die Antwort lautet: Ja, in manchen Fällen. Wer freundlich formuliert, kommuniziert oft klarer und strukturierter. Die KI wiederum reagiert auf freundliche und strukturierte Sprache oft mit ebenso präziseren und differenzierteren Antworten. Der „Ton“ macht also durchaus einen Unterschied – wenn auch nicht technisch, so doch inhaltlich.
Das bedeutet aber nicht, dass jedes „Bitte“ oder „Dankeschön“ zwingend nötig ist. Oft reicht eine präzise, klar formulierte Frage – ohne sprachlichen Überbau.
Was können wir tun, um bewusster mit Energie umzugehen?
Natürlich soll niemand das Gefühl haben, ab jetzt nur noch roboterhaft mit KI-Systemen sprechen zu dürfen. Aber ein bisschen Nachdenken über die Formulierungen schadet nicht. Hier ein paar Tipps für nachhaltigeres Prompten:
- Kurz und präzise formulieren: Je kürzer der Prompt, desto weniger Rechenarbeit.
- Auf unnötige Höflichkeitsfloskeln verzichten: Ein einfaches „Erkläre mir den Treibhauseffekt“ reicht völlig – ohne „Könntest du mir bitte …“.
- Keine redundanten Wiederholungen: Oft wird das Gleiche doppelt gefragt – unnötig.
- Nutzung bündeln: Statt zehn einzelne Prompts lieber eine gut überlegte Anfrage formulieren.
Und was machen die Anbieter wie OpenAI selbst?
OpenAI und andere Anbieter setzen zunehmend auf grüne Rechenzentren und versuchen, ihren Energiebedarf zu reduzieren. Doch der Energiehunger der KIs bleibt immens. Und er wird weiter steigen, je besser und leistungsfähiger die Systeme werden.
Daher braucht es nicht nur technische Optimierung, sondern auch ein Bewusstsein bei uns Nutzenden. Ein bisschen wie beim Wasserverbrauch: Niemand muss sich das Händewaschen verbieten – aber wer den Hahn während des Einseifens zudreht, tut der Umwelt schon einen Gefallen.
Fazit
Höflichkeit ist etwas Schönes – auch im digitalen Raum. Aber sie ist nicht kostenlos. Im Fall von KI-Systemen wie ChatGPT bedeutet jeder zusätzliche Buchstabe mehr Strom, mehr CO₂, mehr Kosten. Ganz auf gute Umgangsformen verzichten müssen wir nicht. Aber wir können bewusster damit umgehen.
Denn manchmal ist weniger wirklich mehr – nicht nur inhaltlich, sondern auch energetisch.