> Forums > News
OpenAI verbietet "albernen" ChatGPT-Hack, fixt ihn aber nicht
Erstellt
Dez. '23
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
9 |
0
„Gefällt mir“ |
Abos
Noch keine |
Di., 05. Dezember, 2023 um 21:29
#1
Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben. Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten. Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen. ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt. Bild: Screenshot C&M News: https://ress.at/-news05122023212920.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/Czuzn/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024