"Bitte" und "Danke"
Wie gute Manieren ChatGPT Millionen kosten

Während ein simples "Bitte" oder "Danke" in menschlichen Konversationen zum guten Ton gehören, führen derartige Höflichkeitsfloskeln im Gespräch mit Künstlicher Intelligenz zu einem enormen Ressourcenverbrauch, wie der OpenAI-Chef jüngst in einem Posting selbst zugab. 

Meist wird uns Menschen bereits in früher Kindheit beigebracht, dass "Bitte" und "Danke" zu sagen zum guten Ton gehört. Höflichkeitsfloskeln wie diese prägen aber längst nicht mehr nur den Umgang mit Mitmenschen – inzwischen finden sie sogar ihren Weg in Gespräche mit KI-basierten Chatbots wie etwa ChatGPT. Warum? Wer weiß, vielleicht erinnert sich die Künstliche Intelligenz daran, wenn sie eines Tages die Weltherrschaft übernimmt, heißt es oftmals mit einem Augenzwinkern.

Verschwendete Ressourcen

Wer versteht, wie KI funktioniert, merkt jedoch schnell, was ein simples "Bitte" oder "Danke" ressourcentechnisch bedeutet. Hinter jeder einzelnen Nachricht, die man in den Chat tippt – sei sie noch so klein –, steckt eine unfassbare Rechenleistung, die die KI zur Verarbeitung und Antwort erbringen muss. Dementsprechend sind zum Betrieb von ChatGPT und Co. riesige Rechenzentren erforderlich, die neben Energie auch Wasser zum Kühlen der Rechner benötigen. Das wirkt sich natürlich gravierend auf die Umwelt aus.

"Gut angelegtes Geld"

Dementsprechend warf eine Userin auf X vor wenigen Tagen die Frage in den Raum, wie viel Geld ChatGPT-Betreiber OpenAI wohl durch Stromkosten und dergleichen verliere, nur weil Nutzer:innen Höflichkeitsfloskeln verwenden. 

Wenig später meldete sich dazu tatsächlich OpenAI-Chef Sam Altman zu Wort. "Zig Millionen Dollar, die gut angelegt sind", meinte er. "Man weiß ja nie", fügte er – wohl scherzhaft mit einem Augenzwinkern – hinzu und spielt damit auf die Befürchtung vieler an, die wohl in zahlreichen Science-Fiction-Werken gründet, die KI könne irgendwann die Menschheit unterwerfen.

Keine genauen Zahlen öffentlich

Wie viel ein einzelnes "Bitte" oder "Danke" das Unternehmen hinter ChatGPT tatsächlich kostet, lässt sich nicht genau beziffern – OpenAI hat bislang keine konkreten Finanzkennzahlen zur Nutzung des KI-Chatbots veröffentlicht. Dennoch haben Medien und Forschende in der Vergangenheit versucht, die Kosten sowohl in Geld als auch in Ressourcen zu schätzen: Laut einer Analyse der Washington Post in Zusammenarbeit mit der University of California in Riverside verbraucht ChatGPT für das Verfassen einer E-Mail mit etwa 100 Wörtern rund 0,14 Kilowattstunden Strom. Zusätzlich werden etwa 518 Milliliter Wasser zur Kühlung benötigt. Wenn man bedenkt, dass ​ChatGPT aktuell weltweit über eine Milliarde Nachrichten pro Tag verarbeitet, kann man die Dimensionen der Umweltbelastung, die sich daraus ergeben, in etwa vorstellen.

Kommentar veröffentlichen

* Pflichtfelder.

leadersnet.TV