> Forums > CM News
K
KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst
Erstellt
Okt. '24
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
25 |
0
„Gefällt mir“ |
Abos
Noch keine |
Mi., 30. Oktober, 2024 um 11:33
#1
Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. https://ress.at/-news30102024113309.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/Sav2u/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024