Beschwerde gegen OpenAI wegen Halluzinationen von ChatGPT

29. April 2024, 08:49 |  0 Kommentare

Der Chatbot soll systematisch gegen die Datenschutzgrundverordnung verstoßen, weil er personenbezogene Daten falsch wiedergibt

Dass Chatbots wie ChatGPT gerne halluzinieren, ist nicht neu, und das wird sich auch in absehbarer Zeit nicht so schnell ändern. Warum die Künstliche Intelligenz überzeugend klingende falsche Informationen ausspuckt, lässt sich oft nicht genau festmachen. Laut der Definition von Google werden Halluzinationen etwa durch unzureichende Trainingsdaten, falsche Annahmen des Modells oder Verzerrungen in den Trainingsdaten (der sogenannte Bias) verursacht.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.0/5 (2 Stimmen)


Das könnte Dich auch interessieren:

Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top