OpenAIs o1-Modell soll Forscher ausgetrickst haben

10. Dez. 2024, 13:39 |  1 Kommentar

OpenAIs neues KI-Modell o1 soll bei Sicherheitstests alles versucht haben, um einer möglichen Löschung zu entgehen.

KI-Sicherheitsforscher haben bei einer Überprüfung von OpenAIs neuem Modell o1 herausgefunden, dass die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.

Apollo Research hat KIs explizit auf deren Sicherheit getestet und dafür Intrigen als Bedrohungsmodell definiert. Die Forscher waren eigenen Angaben zufolge überrascht, wie trickreich und konsequent o1 sich selbst zu schützen versuchte, wenn es die Anweisung erhielt, sein Ziel um jeden Preis zu erreichen. Dann soll o1 hinter dem Rücken der Forscher verschiedene Aktionen geplant haben, die auch den Selbsterhalt zum Ziel hatten.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 3.0/5 (2 Stimmen)


Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(1)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top