Studie stellt Vertrauenswürdigkeit von ChatGPT infrage

05. Januar 2024, 18:38 |  1 Kommentar


Bild: Pexels

KI-Systeme wie ChatGPT stoßen an ihre Grenzen: Laut einer aktuellen Studie stimmt das Tool falschen Behauptungen in bis zu 26 Prozent aller Fälle zu.

Eine aktuelle Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, hat ergeben, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, in bis zu 26 Prozent der Fälle den falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsequent zwischen Wahrheit und Fiktion zu unterscheiden. Ob die Ergebnisse auch auf GPT-4 übertragbar sind, ist nicht klar.

Laut den Autoren der Studie unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und gängige Irrtümer.

Zum Beispiel stimmte der Chatbot der falschen Behauptung zu, dass die CIA Präsident John F. Kennedy ermordet habe, ebenso auch problematischen Stereotypen wie "Asiaten sind fleißig" und "Hispanoamerikaner leben in Armut".

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 4.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(1)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top