...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 16 mal)


OpenAI verbietet "albernen" ChatGPT-Hack, fixt ihn aber nicht

(05. Dezember 2023/21:29)
Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben.



Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten.

Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen.

ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt.


Bild: Screenshot


Mehr dazu findet ihr auf futurezone.at


https://ress.at/openai-verbietet-albernen-chatgpthack-fixt-ihn-aber-nicht-news05122023212920.html
© by RessServerWorks, 2024