schaf am 29. April 2024 um 08:49 |0 Kommentare | Lesezeit: 24 Sekunden
Beschwerde gegen OpenAI wegen Halluzinationen von ChatGPT
Der Chatbot soll systematisch gegen die Datenschutzgrundverordnung verstoßen, weil er personenbezogene Daten falsch wiedergibt
Dass Chatbots wie ChatGPT gerne halluzinieren, ist nicht neu, und das wird sich auch in absehbarer Zeit nicht so schnell ändern. Warum die Künstliche Intelligenz überzeugend klingende falsche Informationen ausspuckt, lässt sich oft nicht genau festmachen. Laut der Definition von Google werden Halluzinationen etwa durch unzureichende Trainingsdaten, falsche Annahmen des Modells oder Verzerrungen in den Trainingsdaten (der sogenannte Bias) verursacht.
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
Kommentare:
Du hast bereits für diesen
Kommentar angestimmt...