OpenAI verbietet "albernen" ChatGPT-Hack, fixt ihn aber nicht

05. Dez. 2023, 21:29 |  0 Kommentare

Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben.



Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten.

Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen.

ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt.


Bild: Screenshot


Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 3.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top