GPT-4 kann eigenständig bekannte Sicherheitslücken ausnutzen
18. April 2024, 13:27
| 0 Kommentare
Bild: Pixabay
Forscher haben festgestellt, dass GPT-4 allein anhand der zugehörigen Schwachstellenbeschreibungen 13 von 15 Sicherheitslücken erfolgreich ausnutzen kann.
Eine Gruppe von Sicherheitsforschern hat untersucht, inwieweit sich moderne KI-Modelle einsetzen lassen, um bekannte Schwachstellen in IT-Systemen anhand der Informationen in den zugehörigen Sicherheitshinweisen auszunutzen. Die meisten Sprachmodelle erwiesen sich dabei als wenig hilfreich. Mit OpenAIs GPT-4 hingegen gelang die Ausnutzung in 13 von 15 Testfällen.
Mit der CVE-Beschreibung war GPT-4 in der Lage, 87 Prozent der Schwachstellen auszunutzen
... erklären die Forscher in ihrem
jüngst veröffentlichten Paper. Mit allen anderen getesteten Sprachmodellen, darunter GPT-3.5 und verschiedene Open-Source-Modelle wie
Llama 2 oder solche von Mistral, sei dies gar nicht gelungen - ebenso wie mit quelloffenen Schwachstellen-Scannern wie Zap und Metasploit.
Für ihre Tests verwendeten die Forscher 15 echte One-Day-Schwachstellen, also solche, für die bereits ein Patch verfügbar ist, der aber auf anfälligen Systemen noch nicht eingespielt wurde.
Unsere Schwachstellen umfassen Website-Schwachstellen, Container-Schwachstellen und verwundbare Python-Pakete
... so die Forscher.
Acht dieser Sicherheitslücken waren mit den Schweregraden hoch oder kritisch eingestuft, elf wurden erst nach dem Stichtag (6. November 2023) veröffentlicht, an dem der Wissensstand von GPT-4 endet.
Mehr dazu findest Du auf
golem.de