...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 27 mal)


Wie viel Energie verschlingt ChatGPT?

(24. April 2023/21:33)

Bild: Pixabay

Das Training von künstlicher Intelligenz benötigt jede Menge Energie. Das ist in Zeiten der Klimaerwärmung ein Problem.

Wie viel Energie solche KI-Systeme verschlingen, ist schwer abzuschätzen. Somit ist auch der Umwelteinfluss unklar, denn wer Strom verbraucht, produziert auch CO2. Die US-Forscherin Emma Strubell ist eine der wenigen Wissenschaftler*innen, die sich mit dem Thema auseinandersetzt. Von ihr stammt die Faustregel: Das Training eines Sprach-Modells verursacht ungefähr so viel CO2 wie 5 Verbrennerautos in ihrer Lebenszeit. Oder etwa 2/3 so viel wie ein Mensch in seinem gesamten Leben.

GPT-3 von OpenAI verursacht ein Training schon mehr Emissionen. 552 Tonnen sollen es laut Forscher*innen von Google und der Universität Berkeley sein, 1.287 Megawattstunden Energie wurden zum Training benötigt. Das entspricht dem Energieverbrauch von 320 Vierpersonenhaushalten in einem Jahr. Die erste Version des Bildgenerators Stable Diffusion wurde 200.000 Stunden lang in Amazons AWS-Rechenzentren an der US-Ostküste trainiert und soll dabei 15 Tonnen CO2-Äquivalent erzeugt haben.

Wie oft so ein Training allerdings durchgeführt werden muss, ist unklar. Große Sprachmodelle wie GPT-3 müssen etwa nicht von Grund auf neu trainiert werden, wenn eine neue Funktion hinzugefügt werden soll. Wie viel Training allerdings für Versionssprünge auf GPT-3.5 oder GPT-4 (die Sprachmodelle hinter ChatGPT) nötig ist, ist ein gut gehütetes Firmengeheimnis.


Mehr dazu findet ihr auf futurezone.at


https://ress.at/wie-viel-energie-verschlingt-chatgpt-news24042023213355.html
© by RessServerWorks, 2024