> Forums > News

OpenAI verbietet "albernen" ChatGPT-Hack, fixt ihn aber nicht

Erstellt
Dez. '23
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
8
0
„Gefällt mir“
Abos
Noch keine
Di., 05. Dezember, 2023 um 21:29
#1

Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben.



Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten.

Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen.

ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt.


Bild: Screenshot






C&M News: https://ress.at/-news05122023212920.html

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/Czuzn/


Ähnliche Themen:











Top