| ||||||||||
Kefir
FAQ-Schreiber Anm. Datum: 01.01.2001 Beiträge: 14472 Wohnort: Belgien Handy: Alle Möglichen zum Testen
Di 05. Dezember, 2023 22:29
Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben.
Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten. Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen. ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt. C&M News: https://ress.at/-news05122023212920.html Warum willst Du den Post von Kefir melden? | |
Werbung |
|
...::: C&M - News :::... Foren-Übersicht » News |
Du hast bereits für diesen
Post angestimmt...
;-)
Posting wird gespeichert...
Alle Zeiten sind GMT + 1 Stunde
© by Ress Design Group, 2001 - 2023