> Forums > News
O
OpenAIs o1-Modell soll Forscher ausgetrickst haben
Erstellt
Dez. '24
|
letzte Antwort | Antwort
1
|
Aufrufe
5 |
2
„Gefällt mir“ |
Abos
Noch keine |
Di., 10. Dezember, 2024 um 13:39
#1
OpenAIs neues KI-Modell o1 soll bei Sicherheitstests alles versucht haben, um einer möglichen Löschung zu entgehen. KI-Sicherheitsforscher haben bei einer Überprüfung von OpenAIs neuem Modell o1 herausgefunden, dass die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research. Apollo Research hat KIs explizit auf deren Sicherheit getestet und dafür Intrigen als Bedrohungsmodell definiert. Die Forscher waren eigenen Angaben zufolge überrascht, wie trickreich und konsequent o1 sich selbst zu schützen versuchte, wenn es die Anweisung erhielt, sein Ziel um jeden Preis zu erreichen. Dann soll o1 hinter dem Rücken der Forscher verschiedene Aktionen geplant haben, die auch den Selbsterhalt zum Ziel hatten. C&M News: https://ress.at/-news10122024133943.html |
|
Di., 10. Dezember, 2024 um 15:42
Der Mensch ist ein naiver Tourist mit einem abgelaufenem Visum für den Planeten Erde .. |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/UNXFy/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2025