ChatGPT und Co sind nicht nur teuer, sondern auch schädlich für die Umwelt

07. Juni 2023, 15:32 |  0 Kommentare


Bild: Pixabay

Ein Sprachmodell zu trainieren verbraucht offenbar so viel Strom wie 100 US-Haushalte im Jahr. Es mangelt an Transparenz und Lösungsvorschlägen

Mit der Veröffentlichung von Chatbots wie Bard, Bing und ChatGPT hat künstliche Intelligenz die Welt im Sturm erobert. Es gibt kaum ein nennenswertes Unternehmen, das sich im Laufe der letzten Monate nicht am KI-Hype bedient hat, um eigene Anwendungen für die Technologie zu verkünden.

Diese Entwicklung hat aber mehrere Schattenseiten. Zum Beispiel die Tatsache, dass sich der ChatGPT-Hersteller OpenAI auf kenianische Billiglohnkräfte stützt, um seinem Chatbot rassistische und sexistische Antworten auszutreiben. Aber nicht nur das: Im öffentlichen Diskurs wird gerne vergessen, wie viel Rechenleistung der Betrieb eines großen Sprachmodells (LLM) beansprucht und wie hoch die eigentlichen Kosten für die Nutzung von KI-Chatbots wirklich sind.

Laut einem Bloomberg-Bericht benötigt das Training eines einzelnen Sprachmodells mehr Strom als 100 US-Haushalte in einem ganzen Jahr. Das ist auch deshalb problematisch, weil die Branche einen Boom erlebt. Aufgrund der fehlenden Transparenz könne niemand mit Sicherheit sagen, wie hoch der CO2-Ausstoß in Wirklichkeit ist.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.0/5 (6 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top