Beschwerde gegen OpenAI wegen Halluzinationen von ChatGPT (29. April 2024/08:49) Der Chatbot soll systematisch gegen die Datenschutzgrundverordnung verstoßen, weil er personenbezogene Daten falsch wiedergibt Dass Chatbots wie ChatGPT gerne halluzinieren, ist nicht neu, und das wird sich auch in absehbarer Zeit nicht so schnell ändern. Warum die Künstliche Intelligenz überzeugend klingende falsche Informationen ausspuckt, lässt sich oft nicht genau festmachen. Laut der Definition von Google werden Halluzinationen etwa durch unzureichende Trainingsdaten, falsche Annahmen des Modells oder Verzerrungen in den Trainingsdaten (der sogenannte Bias) verursacht.
|
https://ress.at/beschwerde-gegen-openai-wegen-halluzinationen-von-chatgpt-news29042024084955.html
© by RessServerWorks, 2024