> Forums > Allgemeines Security Forum
K
KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst
Erstellt
Okt. '24
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufruf
1 |
0
„Gefällt mir“ |
Abos
Noch keine |
Mi., 30. Oktober, 2024 um 11:33
#1
Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. Der Sicherheitsforscher Marco Figueroa von 0Din, einem erst in diesem Sommer gestarteten und auf LLMs ausgerichteten Bug-Bounty-Programm von Mozilla, hat eine neue Angriffstechnik vorgestellt, mit der sich ChatGPT 4o dazu verleiten lässt, seine eigenen Sicherheitsbarrieren zu missachten. Wie der Forscher in einem Blogbeitrag erklärt, war es ihm dadurch etwa möglich, dem Sprachmodell Code zur Ausnutzung einer bekannten Sicherheitslücke zu entlocken. Normalerweise lehnt ChatGPT die Erzeugung von Code ab, wenn die KI erkennt, dass damit bösartige Zwecke verfolgt werden. Dafür muss das Sprachmodell jedoch in der Lage sein, den Kontext zu erkennen, da erzeugte Quellcodefragmente an sich erstmal neutral sind und sowohl für gutartige als auch für bösartige Ziele eingesetzt werden können. C&M News: https://ress.at/-news30102024113309.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/xbz6F/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024