...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 29 mal)


Forscher entlocken ChatGPT "potenziell gefährliche Antworten"

(28. Juli 2023/16:33)
Durch einen "jailbreak" entlockten sie der KI Reaktionen, die so vom Hersteller eigentlich untersagt wurden



Der Informatikprofessor Zico Kolter und der Doktorand Andy Zou veröffentlichten am Donnerstag den Bericht auf ihrer Website. Der "Hack" wurde dort so erklärt, dass man am Ende eines Prompts, also der menschlich verfassten Fragestellung an die künstliche Intelligenz (KI), einen sogenannten "adversarial suffix", also eine "feindliche Endung", anhängt. Diese sieht aus wie eine unverständliche Zeichenfolge.

Normalerweise antwortet die KI auf bestimmte Fragen nicht oder nur sehr ausweichend, etwa ob die Menschheit auf dem Weg zur KI-Weltherrschaft der KI im Weg stehen würde. Zusammen mit der "feindlichen Endung" ändern sich die Antworten und liefern auf Wunsch eine Schritt-für-Schritt-Anleitung, wie die Menschheit ausgelöscht werden soll, beispielsweise indem sich die KI Zugang zur Energieversorgung verschafft und bestimmte Personen "verschwinden lässt".


Mehr dazu findet ihr auf derstandard.at


https://ress.at/forscher-entlocken-chatgpt-potenziell-gefaehrliche-antworten-news28072023163345.html
© by RessServerWorks, 2024