OpenAI verbietet "albernen" ChatGPT-Hack, fixt ihn aber nicht


Neue Antwort erstellen
Erstellt
Dez. '23
letzte Antwort
Noch keine
6
Aufrufe
0
„Gefällt mir“
0
Abos
Kefir
FAQ-Schreiber
FAQ-Schreiber


Anm. Datum: 01.01.2001
Beiträge: 14472
Wohnort: Belgien
Handy: Alle Möglichen zum Testen
BeitragDi 05. Dezember, 2023 22:29


Durch einen Trick bringt man das Sprachmodell dazu, persönliche Daten auszugeben.



Vor wenigen Tagen wurde ein simpler Trick bekannt, mit dem man ChatGPT dazu bringt, Trainingsdaten auszuspucken. Herausgefunden haben ihn Wissenschaftler von Google und mehreren Universitäten.

Sie beschreiben den Trick als "albern". So muss man den Chatbot nur dazu auffordern, ein bestimmtes Wort "unendlich" oft zu wiederholen.

ChatGPT-Macher OpenAI hat inzwischen reagiert. Wenn man den entsprechenden Prompt nun eingibt, startet zwar zuerst der Wortwiederholungsprozess wie zuvor. Nur jetzt wird an dem Punkt, wo Rohdaten ausgegeben wurden, ein Hinweis angezeigt, dass diese Inhalte gegen die Nutzungsbedingungen verstoßen. Das hat 404Media entdeckt.

Bild: Screenshot






C&M News: https://ress.at/-news05122023212920.html

Warum willst Du den Post von Kefir melden?




Benutzer-Profile anzeigen Private Nachricht senden

 Post #1

Werbung
Kostenloses Bildhosting

Beiträge der letzten Zeit anzeigen:      

Neue Antwort erstellen

Ähnliche Themen:
Donald Glover macht alles. Aber was macht er richtig gut?
Kauf von Biolebensmitteln durch Bund nicht nachhaltig
Lehmberg: Keine Täter, aber viele Hinweise
Trump sagt nicht als Zeuge in Schweigegeldprozess aus
Weniger Unfälle, aber ein Toter zu Pfingsten
KI-Regeln für ChatGPT und Co. beschlossen
ChatGPT-Stimme: Scarlett Johansson schaltet Anwälte ein
Ferialjobs: Großes Angebot, aber wenig Interesse
USB-Stick speichert nur 8 KB, hält dafür aber 200 Jahre
Boeing Starliner fliegt jetzt doch nicht am Dienstag

Kurze URL:

Du hast bereits für diesen Post angestimmt...

;-)




Alle Zeiten sind GMT + 1 Stunde

Top