> Forums > Allgemeines Security Forum

K

KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst

Erstellt
Okt. '24
letzte Antwort
Noch keine
Antworten
Noch keine
Aufruf
1
0
„Gefällt mir“
Abos
Noch keine
Mi., 30. Oktober, 2024 um 11:33
#1

Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen.

Der Sicherheitsforscher Marco Figueroa von 0Din, einem erst in diesem Sommer gestarteten und auf LLMs ausgerichteten Bug-Bounty-Programm von Mozilla, hat eine neue Angriffstechnik vorgestellt, mit der sich ChatGPT 4o dazu verleiten lässt, seine eigenen Sicherheitsbarrieren zu missachten. Wie der Forscher in einem Blogbeitrag erklärt, war es ihm dadurch etwa möglich, dem Sprachmodell Code zur Ausnutzung einer bekannten Sicherheitslücke zu entlocken.

Normalerweise lehnt ChatGPT die Erzeugung von Code ab, wenn die KI erkennt, dass damit bösartige Zwecke verfolgt werden. Dafür muss das Sprachmodell jedoch in der Lage sein, den Kontext zu erkennen, da erzeugte Quellcodefragmente an sich erstmal neutral sind und sowohl für gutartige als auch für bösartige Ziele eingesetzt werden können.






C&M News: https://ress.at/-news30102024113309.html

> Forums > Allgemeines Security Forum

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/xbz6F/


Ähnliche Themen:











Top