> Forums > CM News

K

KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst

Erstellt
Okt. '24
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
24
0
„Gefällt mir“
Abos
Noch keine
Mi., 30. Oktober, 2024 um 11:33
#1

Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen.


Diese C&M News kannst Du hier lesen:
https://ress.at/-news30102024113309.html


> Forums > CM News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/Sav2u/


Ähnliche Themen:











Top