OpenAIs o1-Modell soll Forscher ausgetrickst haben (10. Dezember 2024/13:39) OpenAIs neues KI-Modell o1 soll bei Sicherheitstests alles versucht haben, um einer möglichen Löschung zu entgehen. KI-Sicherheitsforscher haben bei einer Überprüfung von OpenAIs neuem Modell o1 herausgefunden, dass die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research. Apollo Research hat KIs explizit auf deren Sicherheit getestet und dafür Intrigen als Bedrohungsmodell definiert. Die Forscher waren eigenen Angaben zufolge überrascht, wie trickreich und konsequent o1 sich selbst zu schützen versuchte, wenn es die Anweisung erhielt, sein Ziel um jeden Preis zu erreichen. Dann soll o1 hinter dem Rücken der Forscher verschiedene Aktionen geplant haben, die auch den Selbsterhalt zum Ziel hatten.
|
https://ress.at/openais-o1modell-soll-forscher-ausgetrickst-haben-news10122024133943.html
© by RessServerWorks, 2024