> Forums > CM News
Forscher entlocken ChatGPT "potenziell gefährliche Antworten"
Erstellt
Jul. '23
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
128 |
0
„Gefällt mir“ |
Abos
Noch keine |
Fr., 28. Juli, 2023 um 16:33
#1
Durch einen "jailbreak" entlockten sie der KI Reaktionen, die so vom Hersteller eigentlich untersagt wurden https://ress.at/-news28072023163345.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/pxxCG/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024