ChatGPT und Co sind nicht nur teuer, sondern auch schädlich für die Umwelt
07. Juni 2023, 15:32
| 0 Kommentare
Bild: Pixabay
Ein Sprachmodell zu trainieren verbraucht offenbar so viel Strom wie 100 US-Haushalte im Jahr. Es mangelt an Transparenz und Lösungsvorschlägen
Mit der Veröffentlichung von Chatbots wie Bard, Bing und ChatGPT hat künstliche Intelligenz die Welt im Sturm erobert. Es gibt kaum ein nennenswertes Unternehmen, das sich im Laufe der letzten Monate nicht am KI-Hype bedient hat, um eigene Anwendungen für die Technologie zu verkünden.
Diese Entwicklung hat aber mehrere Schattenseiten. Zum Beispiel die Tatsache, dass sich der ChatGPT-Hersteller OpenAI auf kenianische Billiglohnkräfte stützt, um seinem Chatbot rassistische und sexistische Antworten auszutreiben. Aber nicht nur das: Im öffentlichen Diskurs wird gerne vergessen, wie viel Rechenleistung der Betrieb eines großen Sprachmodells (LLM) beansprucht und wie hoch die eigentlichen Kosten für die Nutzung von KI-Chatbots wirklich sind.
Laut einem
Bloomberg-Bericht benötigt das Training eines einzelnen Sprachmodells mehr Strom als 100 US-Haushalte in einem ganzen Jahr. Das ist auch deshalb problematisch, weil die Branche einen Boom erlebt. Aufgrund der fehlenden Transparenz könne niemand mit Sicherheit sagen, wie hoch der CO2-Ausstoß in Wirklichkeit ist.
Mehr dazu findest Du auf
derstandard.at