Forscher entlocken ChatGPT "potenziell gefährliche Antworten"

28. Juli 2023, 16:33 |  0 Kommentare

Durch einen "jailbreak" entlockten sie der KI Reaktionen, die so vom Hersteller eigentlich untersagt wurden



Der Informatikprofessor Zico Kolter und der Doktorand Andy Zou veröffentlichten am Donnerstag den Bericht auf ihrer Website. Der "Hack" wurde dort so erklärt, dass man am Ende eines Prompts, also der menschlich verfassten Fragestellung an die künstliche Intelligenz (KI), einen sogenannten "adversarial suffix", also eine "feindliche Endung", anhängt. Diese sieht aus wie eine unverständliche Zeichenfolge.

Normalerweise antwortet die KI auf bestimmte Fragen nicht oder nur sehr ausweichend, etwa ob die Menschheit auf dem Weg zur KI-Weltherrschaft der KI im Weg stehen würde. Zusammen mit der "feindlichen Endung" ändern sich die Antworten und liefern auf Wunsch eine Schritt-für-Schritt-Anleitung, wie die Menschheit ausgelöscht werden soll, beispielsweise indem sich die KI Zugang zur Energieversorgung verschafft und bestimmte Personen "verschwinden lässt".

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.0/5 (9 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top