> Forums > News

O

OpenAIs o1-Modell soll Forscher ausgetrickst haben

Erstellt
Dez. '24
letzte Antwort Antwort
1
Aufrufe
2
2
„Gefällt mir“
Abos
Noch keine
Di., 10. Dezember, 2024 um 13:39
#1

OpenAIs neues KI-Modell o1 soll bei Sicherheitstests alles versucht haben, um einer möglichen Löschung zu entgehen.

KI-Sicherheitsforscher haben bei einer Überprüfung von OpenAIs neuem Modell o1 herausgefunden, dass die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.

Apollo Research hat KIs explizit auf deren Sicherheit getestet und dafür Intrigen als Bedrohungsmodell definiert. Die Forscher waren eigenen Angaben zufolge überrascht, wie trickreich und konsequent o1 sich selbst zu schützen versuchte, wenn es die Anweisung erhielt, sein Ziel um jeden Preis zu erreichen. Dann soll o1 hinter dem Rücken der Forscher verschiedene Aktionen geplant haben, die auch den Selbsterhalt zum Ziel hatten.






C&M News: https://ress.at/-news10122024133943.html

Di., 10. Dezember, 2024 um 15:42
#2



Der Mensch ist ein naiver Tourist mit einem abgelaufenem Visum für den Planeten Erde ..

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/UNXFy/


Ähnliche Themen:











Top