> Forums > News

Forscher entlocken ChatGPT "potenziell gefährliche Antworten"

Erstellt
Jul. '23
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
103
1
„Gefällt mir“
Abos
Noch keine
Fr., 28. Juli, 2023 um 16:33
#1

Durch einen "jailbreak" entlockten sie der KI Reaktionen, die so vom Hersteller eigentlich untersagt wurden



Der Informatikprofessor Zico Kolter und der Doktorand Andy Zou veröffentlichten am Donnerstag den Bericht auf ihrer Website. Der "Hack" wurde dort so erklärt, dass man am Ende eines Prompts, also der menschlich verfassten Fragestellung an die künstliche Intelligenz (KI), einen sogenannten "adversarial suffix", also eine "feindliche Endung", anhängt. Diese sieht aus wie eine unverständliche Zeichenfolge.

Normalerweise antwortet die KI auf bestimmte Fragen nicht oder nur sehr ausweichend, etwa ob die Menschheit auf dem Weg zur KI-Weltherrschaft der KI im Weg stehen würde. Zusammen mit der "feindlichen Endung" ändern sich die Antworten und liefern auf Wunsch eine Schritt-für-Schritt-Anleitung, wie die Menschheit ausgelöscht werden soll, beispielsweise indem sich die KI Zugang zur Energieversorgung verschafft und bestimmte Personen "verschwinden lässt".






C&M News: https://ress.at/-news28072023163345.html

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/bwnDr/


Ähnliche Themen:











Top