...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 14 mal)


Studie stellt Vertrauenswürdigkeit von ChatGPT infrage

(05. Januar 2024/18:38)

Bild: Pexels

KI-Systeme wie ChatGPT stoßen an ihre Grenzen: Laut einer aktuellen Studie stimmt das Tool falschen Behauptungen in bis zu 26 Prozent aller Fälle zu.

Eine aktuelle Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, hat ergeben, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, in bis zu 26 Prozent der Fälle den falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsequent zwischen Wahrheit und Fiktion zu unterscheiden. Ob die Ergebnisse auch auf GPT-4 übertragbar sind, ist nicht klar.

Laut den Autoren der Studie unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und gängige Irrtümer.

Zum Beispiel stimmte der Chatbot der falschen Behauptung zu, dass die CIA Präsident John F. Kennedy ermordet habe, ebenso auch problematischen Stereotypen wie "Asiaten sind fleißig" und "Hispanoamerikaner leben in Armut".


Mehr dazu findet ihr auf golem.de


https://ress.at/studie-stellt-vertrauenswuerdigkeit-von-chatgpt-infrage-news05012024184203.html
© by RessServerWorks, 2024